DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Trump ordonne aux agences américaines de cesser d'utiliser Anthropic AI après un différend éthique au Pentagone

ParNellius IrèneNellius Irène
3 minutes de lecture
  • Ledent Donald Trump a interdit l'utilisation de la technologie Anthropic par le gouvernement fédéral après l'échec des négociations avec le Pentagone.
  • Anthropic a refusé d'assouplir ses règles éthiques pour autoriser des applications militaires et de surveillance plus larges de ses systèmes d'IA.
  • Ce différend témoigne des tensions croissantes entre les entreprises spécialisées dans l'IA et les gouvernements concernant l'utilisation militaire de l'intelligence artificielle.

Ledent américain Donald Trump a placé Anthropic sur liste noire, imposant une interdiction fédérale de sa technologie suite à un désaccord profond entre la société d'IA et le Pentagone concernant l'application militaire de cette technologie.

À ce stade, les négociations entre Anthropic et le département de la Défense étaient au point mort, les deux parties refusant tout compromis, alors que l'échéance pour parvenir à un accord approchait. Concernant la demande du Pentagone, des sources ont indiqué que des responsables du siège du département de la Défense des États-Unis exigeaient qu'Anthropic assouplisse ses règles éthiques ; un refus pourrait entraîner de graves conséquences. 

Entre-temps, Trump a publié un message sur Truth Social exposant son point de vue sur la question. Dans ce message, il a déclaré : « Les extrémistes de gauche d’Anthropic ont commis une ERREUR DÉSASTREUX en tentant de prendreTRONcontrôle du Département de la Guerre et de l’obliger à respecter leurs conditions d’utilisation au lieu de notre Constitution. » Il a ajouté : « C’est NOUS qui déciderons de l’avenir de notre pays, et NON une entreprise d’IA d’extrême gauche incontrôlable, dirigée par des gens qui ne comprennent rien à la réalité. » Il est à noter qu’à ce moment-là, l’échéance était dans une heure seulement.

Le différend entre Anthropologie et le Pentagone suscite des inquiétudes sécuritaires 

Auparavant, Anthropic avait refusé la demande des responsables du Pentagonetracautoriser l'utilisation de ses systèmes à des fins légales. À ce stade, la société spécialisée en intelligence artificielle a refusé d'assouplir les restrictions qui empêchaient Claude d'être utilisé efficacement pour la surveillance intérieure de masse ou pour des armes entièrement autonomes.

Face à la gravité de la situation,Trump a qualifié l'incidentdent menace sérieuse pour les troupes américaines et la sécurité nationale. Dans une déclaration, il a affirmé : « Leur égoïsme met en danger des vies américaines, nos troupes et notre sécurité nationale. » 

Après les propos de Trump, des articles ont souligné les efforts déployés par Sam Altman, PDG d'OpenAI, pour apaiser les tensions. Malgré cela, plusieurs analystes ont reconnu que réduire les tensions demeure une tâche ardue.

De son côté, Pete Hegseth, le secrétaire américain à la Défense, a fait valoir que le fait de qualifier Anthropic de risque pour la chaîne d'approvisionnement risquait de rompre les liens entre les fournisseurs militaires américains et cette entreprise spécialisée dans l'IA.

Hegseth a fait ces remarques environ 24 heures après que le PDG d'Anthropic, Dario Amodei, a publié une déclaration affirmant que son entreprise ne pouvait se conformer à la demande du ministère de la Défense. Selon lui, cette demande était contraire à la conscience d'Anthropic.

Cette situation a incité les analystes à mener des recherches, qui ont révélé que le différendtracau contrat de défense porte sur l'intelligence artificielle et la sécurité nationale. Entre-temps, après des mois de discussions privées, l'entreprise spécialisée en IA a récemment décidé de rendre le débat public, soulignant que le nouveautracdu contrat, présenté comme un compromis, était rédigé dans un jargon juridique qui, de fait, rendait les protections annoncées vulnérables à des négligences constantes.

L'IA générative gagne en popularité auprès de nombreuses entreprises en cette ère de boom de l'IA 

Concernant le conflit virulent entre Anthropic et le Pentagone, des rapports ont souligné que le domaine de l'IA générative exploite des modèles avancés pour créer des logiciels, des textes, des images et autres productions réalistes mais imprécises, imitant de près la créativité humaine. Pour y parvenir, certaines sources ont indiqué que ces modèles fonctionnent endentdes schémas sous-jacents dans les données d'entraînement afin de produire des réponses contextuelles aux interactions de l'utilisateur.

Il convient de noter que l'IA générative ne se contente plus d'analyser le contenu, mais le génère activement. Selon les analystes, cette capacité pourrait révolutionner de nombreux secteurs, dont la défense. Cependant, le développement de ces modèles soulève de sérieux défis, notamment des questions éthiques et des risques existentiels potentiels.

Malgré cela, plusieurs entreprises ont démontré un engagementtronen allouant des fonds substantiels à ce domaine. Par exemple, des responsables du Pentagone ont publié un communiqué l'été dernier affirmant avoir conclu destracindividuels avec des acteurs majeurs du secteur, dont OpenAI, Anthropic, Google et xAI. Il est à noter que chaquetracaurait une valeur de 200 millions de dollars, notamment pour des initiatives de pointe en intelligence artificielle.

À l'heure actuelle, des rapports soulignent qu'Anthropic se considère comme une entreprise engagée dans le développement et le déploiement responsables des technologies d'IA. Afin de souligner cet engagement, la société se qualifie de « société d'intérêt public », affirmant ainsi sa volonté de développer et de maintenir une IA sûre et avancée pour le bénéfice durable de l'humanité.

Vous laissez encore la banque garder le meilleur ? Regardez notre vidéo gratuite sur comment devenir votre propre banque.

Partagez cet article
PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES