L’intelligence artificielle n’a pas besoin de vous tuer pour vous rendre la vie plus difficile ou entraîner de mauvais résultats politiques.
L’une des raisons pour lesquelles mon partenaire et moi sommes bien assortis est que nous aimons tous les deux les jeux de société, et que je ne suis pas très bon à ces jeux. Cela aide, car ma partenaire est une gagnante gracieuse mais une perdante épouvantable. Une fois, au début de son adolescence, au cours d’une partie de dames avec sa sœur, elle a réagi à une position impossible à gagner en retournant la table.
Si l’intelligence artificielle détruit la vie humaine, elle ressemblera certainement plus à la réaction de ma partenaire face à la défaite qu’à l’intelligence destructrice des films Terminator. La catastrophe ne surviendra pas lorsqu’une intelligence sophistiquée décidera d’utiliser son pouvoir pour faire délibérément le mal, mais lorsque le moyen le plus simple de satisfaire sa programmation et de « gagner » sera de renverser la table.
La menace que l’intelligence artificielle provoque une sorte de catastrophe sociétale est, bien sûr, une raison pour laquelle nous devrions nous inquiéter de la recherche, de l’éthique et de la transparence. Mais cette focalisation sur le potentiel de catastrophe peut parfois détourner l’attention des dangers plus banals. Si votre Satnav vous dirige vers le bord d’une falaise, comme ce fut le cas en 2009, lorsque Robert Jones a été condamné pour avoir manqué de prudence au volant, il ne s’agit pas d’une tragédie sociétale. Mais elle peut être une tragédie personnelle si elle vous conduit à perdre votre vie, votre emploi ou même simplement votre permis de conduire.
L’une des conséquences fâcheuses des prédictions alarmistes constantes sur les pires conséquences de l’intelligence artificielle ou des programmes d’apprentissage automatique est qu’elles encouragent une sorte de complaisance « ils ne nous ont pas encore tués » quant à leur prévalence actuelle dans les politiques publiques et les décisions des entreprises.
Un problème plus courant est que, pour les décideurs politiques comme pour les chefs d’entreprise, le mot « algorithme » peut parfois être empreint de pouvoirs magiques. Un bon exemple récent est la tentative infructueuse du gouvernement britannique d’attribuer des notes aux étudiants pendant la pandémie. Or, un algorithme n’est qu’un ensemble de données introduites dans des règles ou des formules mathématiques pour produire un résultat. Étant donné qu’aucun élève britannique passant son GCSE ou son A-level n’avait beaucoup de données significatives sur ses propres performances, l' »algorithme » britannique était essentiellement arbitraire au niveau individuel. Il en a résulté un tollé général, l’abandon de l’algorithme et une inflation galopante des notes.
L’utilisation la plus inquiétante des algorithmes dans la politique est celle des algorithmes dits « boîte noire » : ceux dont les données et les processus sont cachés au public. Cela peut être dû au fait qu’ils sont considérés comme des informations exclusives : par exemple, les facteurs qui sous-tendent le système Compas, utilisé aux États-Unis pour mesurer la probabilité de récidive, ne sont pas accessibles au public car ils sont considérés comme la propriété de l’entreprise.
Cela pose inévitablement des problèmes pour la démocratie. Tout système conçu pour mesurer la probabilité de récidive d’une personne doit faire un choix entre laisser sortir les personnes susceptibles de récidiver ou continuer à emprisonner des personnes prêtes à devenir des membres productifs de la société. Il n’y a pas de réponse « bonne » ou « juste » ici : les algorithmes peuvent influencer votre prise de décision, mais le jugement est en fin de compte celui des hommes politiques et, indirectement, de leurs électeurs.
Comme l’a fait remarquer le statisticien David Spiegelhalter, il n’y a aucune différence pratique entre les juges qui utilisent des algorithmes et ceux qui suivent les directives en matière de peines. La différence importante réside uniquement et de manière significative dans le fait que les directives de condamnation sont clairement comprises, accessibles au public et soumises à un débat démocratique.
L’algorithme d’examen condamné du Royaume-Uni n’était pas une « boîte noire » en raison des lois sur la propriété intellectuelle ou du désir d’une entreprise de protéger ses intérêts, mais le résultat de la préférence par défaut de l’État britannique pour une prise de décision opaque. Si les rouages du processus avaient été rendus publics plus tôt, l’opposition politique à ce processus se serait manifestée à temps pour trouver une solution plus acceptable.
L’autre forme d’algorithme « boîte noire » est celle où les informations sont accessibles au public mais trop complexes pour être facilement comprises. Là encore, les conséquences peuvent être désastreuses. Si l’algorithme qui décide qui est licencié ne peut pas être raisonnablement compris par les employés ou, en fait, par les employeurs, il s’agit alors d’un mauvais outil pour les gestionnaires et d’un outil qui cause du mécontentement. Dans le domaine des politiques publiques, si les résultats d’un algorithme sont trop complexes, ils risquent d’embrouiller le débat au lieu d’aider les décideurs à prendre de meilleures décisions.
M. Spiegelhalter propose un processus en quatre phases pour les algorithmes et l’apprentissage automatique dans la politique publique et sur le lieu de travail, comparable au processus par lequel les produits pharmaceutiques britanniques doivent passer pour être approuvés. L’une des raisons pour lesquelles ce plan est bon est qu’il pourrait éviter une erreur de portée mondiale : mais il pourrait aussi éviter des tragédies mineures et des échecs de politique publique.
–
SEO Inside est une agence de référencement naturel (Notamment…)
--
SEO Inside est une agence web et SEO - en savoir plus sur nous:
Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis
Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.
Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco
SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.