La campagne visant à inciter les gouvernements à s'entendre sur des limites internationales contraignantes pour freiner les abus liés à la technologie de l'IA a été portée au niveau de l'ONU, alors que plus de 200 personnalités politiques, scientifiques et leaders d'opinion de premier plan, dont 10 lauréats du prix Nobel, ont mis en garde contre les risques liés à cette technologie.
La déclaration, publiée lundi à l'occasion de l'ouverture de la Semaine de haut niveau de l'Assemblée générale des Nations Unies, est qualifiée d'Appel mondial à des lignes rouges pour l'IA. Elle affirme que la trajectoire actuelle de l'IA présente des dangers sansdentet exige que les pays œuvrent à un accord international sur des restrictions claires et vérifiables d'ici fin 2026.
Des lauréats du prix Nobel mènent un plaidoyer à l'ONU.
Cet appel a été révélé par Maria Ressa, lauréate du prix Nobel de la paix et journaliste, qui a profité de son discours d'ouverture pour exhorter les gouvernements à « prévenir les risques universellement inacceptables » et defice que l'IA ne devrait jamais être autorisée à faire.
Parmi les signataires de cette déclaration figurent des lauréats du prix Nobel de chimie, d'économie, de la paix et de physique, ainsi que des auteurs de renom tels que Stephen Fry et Yuval Noah Harari. L'anciennedent irlandaise Mary Robinson et l'anciendent colombien Juan Manuel Santos, lui aussi lauréat du prix Nobel de la paix, y ont également apporté leur soutien.
Geoffrey Hinton et Yoshua Bengio, connus comme les « parrains de l'IA » et lauréats du prix Turing, considéré comme le prix Nobel de l'informatique, ont également apposé leur signature à la déclaration.
« C’est un tournant décisif », a déclaré Harari. « L’humanité doit s’entendre sur des limites claires concernant l’IA avant que cette technologie ne remodèle la société au-delà de notre entendement et ne détruise les fondements de notre humanité. »
Les efforts déployés jusqu'à présent pour alerter sur les dangers de l'IA se sont souvent concentrés sur des engagements volontaires d'entreprises et de gouvernements. En mars 2023, plus de 1 000 dirigeants du secteur technologique, dont Elon Musk, ont appelé à un moratoire sur le développement de systèmes d'IA puissants. Quelques mois plus tard, des responsables d'entreprises spécialisées en IA, tels que Sam Altman d'OpenAI et de Google DeepMind, ont signé une brève déclaration assimilant les risques existentiels de l'IA à ceux d'une guerre nucléaire ou d'une pandémie.
L'IA alimente les craintes de risques existentiels et sociétaux
La semaine dernière encore, l'intelligence artificielle a été impliquée dans des affaires allant du suicide d'un adolescent à des signalements de son utilisation pour manipuler le débat public.
Les signataires de l'appel affirment que ces risques immédiats pourraient bientôt être éclipsés par des menaces plus importantes. Des experts ont averti que les systèmes d'IA avancés pourraient entraîner un chômage de masse, des pandémies provoquées oumatic des droits humains s'ils ne sont pas contrôlés.
Parmi les éléments figurant sur la liste des mesures sous embargo, on peut citer l'interdiction des armes autonomes létales, l'interdiction des systèmes d'IA autoréplicatifs et la garantie que l'IA ne soit jamais déployée dans la guerre nucléaire.
« Il est de notre intérêt commun vital d’empêcher que l’IA n’inflige des dommages graves et potentiellement irréversibles à l’humanité, et nous devons agir en conséquence », a déclaré Ahmet Üzümcü, ancien directeur général de l’Organisation pour l’interdiction des armes chimiques, qui a reçu le prix Nobel de la paix en 2013 sous sa direction.
Plus de 60 organisations de la société civile ont signé la lettre, dont le think tank britannique Demos et l'Institut de Pékin pour la sécurité et la gouvernance de l'IA. Cette initiative est coordonnée par trois organisations à but non lucratif : le Centre pour une IA compatible avec l'humain de l'Université de Californie à Berkeley ; The Future Society ; et le Centre français pour la sécurité de l'IA.
Malgré les récents engagements en matière de sécurité pris par des entreprises comme OpenAI et Anthropic, qui ont accepté que leurs modèles soient testés par les gouvernements avant leur publication, les recherches suggèrent que ces entreprises ne respectent qu'environ la moitié de leurs engagements.
« Nous ne pouvons pas nous permettre d’attendre », a déclaré Ressa. « Nous devons agir avant que l’IA ne devienne incontrôlable. »

