De nombreux signaux d’alarme ne ralentissent pas encore le train de l’IA générative. Les critiques affirment que la technologie comporte des risques alarmants et nécessite une meilleure gouvernance.
La publication de modèles d’IA générative puissants tels que ChatGPT et Dall-E 2 a relancé le débat sur les risques alarmants de la technologie et la nécessité d’une meilleure gouvernance. Si les défenseurs de l’intelligence artificielle voient cette technologie comme un outil pour augmenter la productivité et la créativité, ses détracteurs craignent qu’elle ne comporte des risques actuels alarmants et même une menace existentielle pour l’humanité à l’avenir. Des chercheurs de Google ont déjà signalé les dangers des modèles d’IA générative de l’entreprise qui s’appuient sur les préjugés sociétaux existants, mais ils ont été licenciés par la suite. Des chercheurs en IA ont également appelé à un moratoire de six mois sur le développement de modèles de pointe jusqu’à ce que de meilleurs régimes de gouvernance puissent être mis en place.
Depuis que les Grecs de l’Antiquité ont imaginé le mythe de Prométhée, l’humanité s’interroge sur la double nature de la technologie. Le feu que Prométhée a volé aux dieux pouvait réchauffer les humains, mais aussi les brûler. Il en va de même avec le déploiement à grande échelle des systèmes d’intelligence artificielle aujourd’hui. Les défenseurs de l’IA affirment depuis longtemps que cette technologie d’usage général entraînera une hausse sans précédent de la productivité et de la créativité ; ses détracteurs craignent qu’elle ne comporte des risques actuels alarmants et qu’elle ne constitue même une menace existentielle pour l’humanité à l’avenir.
La publication l’année dernière de puissants modèles d’IA générative, tels que ChatGPT et Dall-E 2 développés par OpenAI, a ravivé ce débat qui couvait. Plus de 100 millions d’utilisateurs ont déjà fait l’expérience des choses étranges et merveilleuses que ces types de modèles génératifs peuvent faire : atteindre des niveaux quasi humains de reconnaissance et de reproduction de textes et d’images, cocréer du code informatique et produire de fausses photos virales du pape en blouson blanc.
Dans un message récent, Bill Gates, cofondateur de Microsoft devenu philanthrope, a déclaré qu’il avait regardé avec « admiration », en septembre dernier, le modèle d’OpenAI réussir un examen de biologie avancée, prédisant que la technologie pourrait apporter d’énormes avantages dans les domaines des soins de santé et de l’éducation. Un rapport de recherche de Goldman Sachs, publié cette semaine, prévoit que l’adoption généralisée de l’IA pourrait considérablement stimuler la productivité du travail et augmenter le produit intérieur brut annuel mondial de 7 %.
Mais le développement rapide et l’utilisation de plus en plus généralisée des systèmes d’IA générative en ont également alarmé plus d’un. Certains chercheurs de Google, comme Timnit Gebru et Margaret Mitchell, ont été parmi les premiers à signaler les dangers des modèles d’IA générative de l’entreprise qui s’appuient sur les préjugés sociétaux existants, mais ils ont été licenciés par la suite. Cette semaine, dans une lettre ouverte publiée par le Future of Life Institute, plus de 1 100 signataires, dont plusieurs éminents chercheurs en IA, ont amplifié l’alarme. Ils ont appelé à un moratoire de six mois sur le développement de modèles de pointe jusqu’à ce que de meilleurs régimes de gouvernance puissent être mis en place. Sans contrôle, ces machines pourraient inonder l’internet de contre-vérités, automatiser des emplois utiles et même menacer la civilisation. « De telles décisions ne devraient pas être déléguées à des dirigeants technologiques non élus », affirment les auteurs de la lettre.
Il convient de démêler au moins trois fils de la controverse. Le premier, le plus facile à écarter, est la panique morale qui accompagne presque toutes les nouvelles technologies, qu’il s’agisse des trains à vapeur, de l’électricité, des voitures ou des ordinateurs. Même l’invention par Benjamin Franklin du paratonnerre, apparemment inoffensif, s’est d’abord heurtée à l’opposition des anciens de l’Église, qui craignaient qu’elle n’interfère avec « l’artillerie du ciel ». En règle générale, il vaut mieux débattre de la manière d’utiliser correctement des technologies commercialement précieuses que de maudire leur arrivée.
La deuxième raison est que les intérêts commerciaux ont tendance à coïncider avec les positions morales. OpenAI a débuté en 2015 en tant que laboratoire de recherche à but non lucratif, promettant de collaborer avec des partenaires extérieurs pour garantir le développement sûr de l’IA. Mais en 2019, l’OpenAI est passée à un modèle à but lucratif plafonné, ce qui lui a permis de lever des fonds de capital-risque et d’émettre des options d’achat d’actions pour attirer les meilleurs chercheurs en IA. Depuis lors, elle a attiré de gros investissements de Microsoft et est devenue une entité plus fermée et commerciale. Cela dit, au moins une partie des critiques provient de rivaux qui ont intérêt à ralentir le développement d’OpenAI.
Mais le troisième fil conducteur, et le plus important, est que de nombreux experts sérieux en IA, bien au fait des dernières percées, sont réellement préoccupés par la vitesse et la direction de la progression. Ces inquiétudes sont amplifiées par la tendance de certaines grandes entreprises technologiques, telles que Microsoft, Meta, Google et Amazon, à réduire leurs équipes chargées de l’éthique.
Comme l’a écrit M. Gates dans son billet, les forces du marché ne suffiront pas à lutter contre les inégalités sociales. Les organisations de la société civile se mobilisent rapidement et certains gouvernements cherchent à établir une réglementation plus claire. Cette semaine, le Royaume-Uni a publié un projet de règles sur l’IA favorable à l’innovation, tandis que l’Union européenne élabore une directive plus stricte sur le contrôle de l’utilisation de la technologie dans les domaines à haut risque. Mais pour l’instant, ces efforts ne semblent guère plus qu’un petit drapeau rouge agité devant un train qui s’accélère.
À moins que les entreprises à la tête de la révolution de l’IA ne puissent prouver de manière crédible que leurs modèles sont conçus dans l’intérêt supérieur de l’humanité, elles peuvent s’attendre à une réaction publique beaucoup plus féroce. La création d’institutions expertes et indépendantes ayant le pouvoir d’auditer les algorithmes des entreprises d’IA et de restreindre leur utilisation devrait être la prochaine étape à l’ordre du jour.
–
SEO INSIDE est une agence de netlinking (notamment…)
--
SEO Inside est une agence web et SEO - en savoir plus sur nous:
Agence web / Audit SEO / Conseil SEO / Création de site internet / Refonte de site internet optimisé pour le SEO / Référencement naturel / Référencement local /Netlinking / Formation SEO / E-Réputation et avis
Voici nos implantations :
Lille / Dunkerque / Amiens – ce sont nos 3 bureaux historiques.
Puis voici nos zones géographiques d’intervention :
Paris / Abbeville / Rouen / Compiègne / Reims / Metz / Caen / Evreux / Nancy / Colmar / Rennes / Le Mans / Orléans / Dijon / Besançon / Angers / Nantes / La Rochelle / Poitiers / Limoges /Clermont-Ferrand / Lyon / Annecy / Grenoble / Valence / Bordeaux / Montauban / Toulouse / Biarritz / Montpellier / Marseille / Cannes / Nice / Avignon / Monaco
SEO INSIDE est une agence web spécialiste en référencement naturel qui se veut proche de vous. Contactez-nous pour discuter de vos projets.