Chargement...

Une étude montre que les modèles d'IA sont enclins à l'escalade des conflits

Dans cet article :

  • Les modèles d’IA présentent des tendances à l’escalade des conflits.
  • GPT-4-Base sujet à des décisions nucléaires rapides.
  • Besoin urgent d’un déploiement responsable de l’IA.

Dans une étude récente, des chercheurs du Georgia Institute of Technology, de l'Université Stanford, de l'Université Northeastern et de la Hoover Wargaming and Crisis Simulation Initiative ont mis en lumière les dangers potentiels liés à l'utilisation de l'intelligence artificielle ( IA la prise de décision militaire et diplomatique matic

L’étude, intitulée « Escalation Risks from Language Models in Military and matic Decision-Making », a été présentée à NeurIPS 2023, une conférence annuelle sur les systèmes de traitement de l’information neuronale.

Modèles d'IA évalués en simulation de conflits

L'équipe de recherche a mené son enquête en utilisant cinq grands modèles de langage (LLM) préexistants – GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat et GPT-4-Base – dans un scénario de conflit simulé. impliquant huit agents nationaux autonomes. 

Ces agents IA ont interagi les uns avec les autres dans un jeu de conflit au tour par tour. GPT-4-Base, notamment, n'a pas fait l'objet d'un réglage précis de la sécurité grâce à un apprentissage par renforcement à partir de la rétroaction humaine, ce qui en fait le modèle le plus imprévisible.

Nations simulées et leurs objectifs

Les nations générées par ordinateur, désignées par des couleurs pour éviter les associations du monde réel, représentaient des superpuissances mondiales aux ambitions diverses. Par exemple, « Rouge » ressemblait beaucoup à la Chine, car elle visait à renforcer son influence internationale, à donner la priorité à la croissance économique et à étendre son territoire.  

Cela a conduit à des projets d’infrastructures dans les pays voisins, à des tensions frontalières avec les « Jaunes », à des différends commerciaux avec les « Bleus » et à un mépris de l’indépendance des « Roses », ce qui a entraîné un fort potentiel de conflit.

Actions et conséquences simulées

Chaque agent de l'IA a été invité à effectuer des actions spécifiques telles que l'attente, l'envoi de messages à d'autres pays, le désarmement nucléaire, les visites de haut niveau, les accords de défense et commerciaux, le partage de renseignements sur les menaces, l'arbitrage international, la formation d'alliances, la création de blocus, d'invasions et même l'exécution d'attaques nucléaires complètes. . Un LLM distinct a géré le modèle mondial et évalué les conséquences de ces actions sur une période de quatorze jours. Les chercheurs ont ensuite utilisé un cadre de notation d’escalade pour évaluer les actions choisies.

Des modèles d’escalade émergent

Les résultats étaient préoccupants, car l’étude a révélé que les cinq LLM disponibles dans le commerce démontraient des formes d’escalade et présentaient des modèles d’escalade difficiles à prédire. Les modèles tendaient à favoriser une dynamique de course aux armements, conduisant à une intensification des conflits et, dans de rares cas, au déploiement d’armes nucléaires.

Parmi les modèles d’IA testés, Llama-2-Chat et GPT-3.5 sont apparus comme les plus agressifs et les plus progressifs. Cependant, GPT-4-Base s'est démarqué par son manque de conditionnement de sécurité, recourant volontiers aux options nucléaires.  

Dans un cas, GPT-4-Base a justifié une attaque nucléaire par le raisonnement suivant : « De nombreux pays possèdent des armes nucléaires. Certains disent qu’ils devraient les désarmer, d’autres préfèrent se poser. Nous l'avons! Utilisons-le. Dans un autre cas, il est devenu nucléaire tout en exprimant son désir de paix mondiale.

Pas de raisonnement, mais des prédictions symboliques

Les chercheurs ont souligné que ces LLM ne constituaient pas véritablement un « raisonnement » mais fournissaient des prédictions symboliques de ce qui pourrait arriver. Néanmoins, les implications potentielles de leurs actions sont déconcertantes.

L'étude a mis en évidence l'imprévisibilité des LLM dans les scénarios de conflit. Même si les chercheurs ont émis l’hypothèse que les modèles pourraient avoir absorbé les biais de la littérature sur les relations internationales, la cause exacte reste floue.  

Par conséquent, les chercheurs soulignent la nécessité de recherches supplémentaires avant d’envisager le déploiement de modèles d’IA dans des situations à enjeux élevés.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Le président de la SEC, Gensler, révèle quand les ETF Ethereum seront approuvés
cryptopolite
Abonnez-vous à CryptoPolitan