Chargement...

Google, OpenAI et 13 autres s'engagent à ne pas déployer de modèles d'IA à risque

Dans cet article :

  • OpenAI, Microsoft, Google et 13 autres sociétés d'IA ont accepté un nouvel engagement des autorités britanniques en matière de sécurité de l'IA. 
  • L’engagement exige que les entreprises cessent de développer tout modèle jugé extrêmement risqué.
  • Le Premier ministre britannique a déclaré que c'était la première fois que les entreprises mondiales d'IA s'engageaient à respecter les mêmes normes de sécurité.

Google, OpenAI et Meta ont convenu de cesser de développer tout modèle d'IA s'ils ne parviennent pas à contenir les risques. Les entreprises ont signé mardi les « engagements en matière de sécurité de l'IA » lors du sommet AI de Séoul organisé par le Royaume-Uni et la Corée du Sud.

A lire également : Le Royaume-Uni et la République de Corée collaborent au sommet sur l'IA

C'est une première mondiale de voir autant de grandes entreprises d'IA provenant de tant de régions du monde convenir toutes des mêmes engagements en matière de sécurité de l'IA. 

— Premier ministre britannique, Rishi Sunak

16 entreprises d’IA acceptent leurs engagements en matière de sécurité de l’IA

Selon le rapport , un total de 16 sociétés d'IA ont accepté l'engagement de sécurité, aux États-Unis, en Chine et au Moyen-Orient.

Microsoft, Amazon, Anthropic, Samsung tron et le développeur chinois Zhipu.ai font également partie des entreprises qui acceptent les normes de sécurité. 

A lire aussi : Alibaba et Tencent investissent 342 millions de dollars dans la start-up d'IA Zhipu

L’engagement AI Safety exige que toutes les entreprises publient leur cadre de sécurité respectif avant un autre sommet d’action sur l’IA en France début 2025. Le cadre expliquera comment les entreprises déterminent les risques de leurs modèles et quels risques sont « jugés intolérables ».

Les entreprises d’IA mettront fin aux modèles d’IA risqués

Dans les cas les plus extrêmes, les entreprises « ne développeront ni ne déploieront de modèle ou de système du tout » si les risques ne peuvent être maîtrisés, selon le rapport. 

Le véritable potentiel de l’IA ne sera libéré que si nous sommes capables d’en maîtriser les risques. Il appartient à nous tous de veiller à ce que l’IA soit développée en toute sécurité.  

— Michelle Donelan, secrétaire à la technologie du Royaume-Uni

En juillet 2023, le gouvernement américain a déployé des efforts similaires pour s’attaquer aux risques et aux avantages de l’IA. Le dent Joe Biden a rencontré Google, Microsoft, Meta, OpenAI, Amazon, Anthropic et Inflection pour discuter des garanties en matière d'IA qui garantissent la sécurité de leurs produits d'IA avant leur commercialisation.

Le débat sur la sécurité de l’IA s’intensifie autour d’OpenAI

Le débat sur la sécurité de l’IA s’est intensifié ces derniers mois, en particulier autour des AGI, qui visent à imiter l’intelligence générale humaine. 

L'une des sociétés OpenAI a été au centre de cette conversation la semaine dernière après la démission de son co-fondateur, Ilya Sutskever, et de son cadre supérieur, Jan Leike. Le duo était en charge de l’équipe OpenAI Superalignment mise en place pour empêcher leurs modèles de devenir malveillants.  

A lire aussi : Un autre dirigeant d'OpenAI, Jan Leike, démissionne

Dans son message, Leike a déclaré qu'« au cours des dernières années, la culture et les processus de sécurité ont cédé le pas aux produits brillants » dans l'entreprise. 

Leike a ajouté que « OpenAI doit devenir une entreprise AGI axée sur la sécurité » et que nous devons donner la priorité à leur préparation du mieux que nous pouvons pour garantir que l’AGI profite à toute l’humanité.


Reportage cryptopolitain d'Ibiam Wayas

Sujets marqués dans cet article : | | | | |

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

brésilien
cryptopolite
Abonnez-vous à CryptoPolitan