Google, OpenAI et Meta se sont engagés à cesser tout développement de modèle d'IA s'ils ne parviennent pas à maîtriser les risques. Ces entreprises ont signé les « Engagements pour la sécurité de l'IA » mardi lors du Sommet de Séoul sur l'IA, organisé conjointement par le Royaume-Uni et la Corée du Sud.
À lire également : Le Royaume-Uni et la République de Corée collaborent à un sommet sur l’IA
C'est une première mondiale : autant d'entreprises leaders en IA, issues de tant de régions du monde, adhèrent aux mêmes engagements en matière de sécurité de l'IA.
— Premier ministre britannique, Rishi Sunak
16 entreprises spécialisées en IA acceptent des engagements en matière de sécurité de l'IA
D'après le rapport , 16 entreprises spécialisées en intelligence artificielle, réparties entre les États-Unis, la Chine et le Moyen-Orient, ont accepté l'engagement en matière de sécurité.
Microsoft, Amazon, Anthropic, Samsungtronet le développeur chinois Zhipu.ai figurent également parmi les entreprises qui adhèrent à ces normes de sécurité.
L’engagement en matière de sécurité de l’IA exige que toutes les entreprises publient leur cadre de sécurité respectif avant un autre sommet sur l’action en matière d’IA qui se tiendra en France début 2025. Ce cadre expliquera comment les entreprises déterminent les risques liés à leurs modèles et quels risques sont « jugés intolérables »
Les entreprises spécialisées en IA vont abandonner les modèles d'IA risqués
Dans les cas les plus extrêmes, les entreprises « ne développeront ni ne déploieront aucun modèle ou système » si les risques ne peuvent être maîtrisés, selon le rapport.
Le véritable potentiel de l'IA ne se révélera que si nous parvenons à maîtriser les risques. Il est de notre responsabilité à tous de veiller à ce que l'IA soit développée en toute sécurité.
— Michelle Donelan, secrétaire d'État britannique à la Technologie
En juillet 2023, le gouvernement américain a entrepris une démarche similaire pour évaluer les risques et les avantages de l'IA. Ledent Joe Biden a rencontré des représentants de Google, Microsoft, Meta, OpenAI, Amazon, Anthropic et Inflection afin de discuter des mesures de protection à mettre en place pour garantir la sécurité de leurs produits d'IA avant leur commercialisation.
Le débat sur la sécurité de l'IA s'intensifie autour d'OpenAI
Le débat sur la sécurité de l'IA s'est intensifié ces derniers mois, notamment autour des IAG, qui visent à imiter l'intelligence générale humaine.
La société OpenAI s'est retrouvée au cœur de cette polémique la semaine dernière suite à la démission de son cofondateur, Ilya Sutskever, et de son cadre dirigeant, Jan Leike. Ils étaient responsables de l'équipe OpenAI Superalignment, créée pour empêcher les modèles de dérailler.
À lire également : Jan Leike, un autre cadre d’OpenAI, démissionne
Dans son message, Leike a déclaré que « ces dernières années, la culture et les processus de sécurité ont été relégués au second plan par rapport aux produits à la mode » au sein de l'entreprise.
Il est grand temps de prendre au sérieux les implications de l'intelligence artificielle générale (IAG).
— Jan Leike (@janleike) 17 mai 2024
Nous devons nous y préparer au mieux et en faire une priorité absolue.
Ce n'est qu'ainsi que nous pourrons garantir que l'IAG profite à toute l'humanité.
Leike a ajouté qu’« OpenAI doit devenir une entreprise d’IA générale axée sur la sécurité » et que nous devons nous préparer au mieux à ces évolutions afin de garantir que l’IA générale profite à toute l’humanité.
Reportage Cryptopolitan d'Ibiam Wayas

