Anthropic a déclaré qu'elle ne reculerait pas dans un conflit avec le département américain de la Défense (DoD) concernant la manière dont sa technologie d'intelligence artificielle (IA) est utilisée.
Les concurrents , OpenAI, Google et xAI, ont également obtenu trac du département de la Défense américain (DoD) d'un montant maximal de 200 millions de dollars. Ces entreprises ont accepté que le DoD utilise leurs modèles à toutes fins légales au sein des systèmes non classifiés de l'armée.
Anthropic a signé son propretracde 200 millions de dollars avec le département de la Défense en juillet, et a été le premier laboratoire à intégrer ses modèles dans les flux de travail des missions sur des réseaux classifiés.
Cependant, la start-up spécialisée en intelligence artificielle est engagée depuis quelques semaines dans des négociations tendues avec le Pentagone. Selon une source proche des négociations, ces tensions « remontent à plusieurs mois », avant même que l'utilisation de Claude dans le cadre d'une opération américaine visant à capturer le président vénézuélien dent Maduro ne soit rendue publique.
Le principal différend porte sur la surveillance et les armes
Anthropic souhaite obtenir l'assurance que ses modèles ne seront pas utilisés pour des armes entièrement autonomes ou pour la surveillance intérieure de masse des Américains, tandis que le ministère de la Défense souhaite pouvoir utiliser ces modèles sans ces restrictions.
Concernant ces risques spécifiques, Dario Amodei a déclaré : « Dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques. Certaines utilisations dépassent également les capacités de la technologie actuelle, qui permet de réaliser des opérations sûres et fiables. »
Développant les préoccupations liées à la surveillance, Dario Amodei a déclaré dans son communiqué que l'IA puissante permet de « rassembler ces données éparses et individuellement anodines en une image complète de la vie de chaque personne, de manière automatique matic à grande échelle ».
Il a fait remarquer que si Anthropic soutient l'utilisation de l'IA à des fins de renseignement étranger légitime, « l'utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques ».
Menaces, échéances et guerre des mots
secrétaire à la Défense, Pete Hegseth, qui a rencontré Amodei au Pentagone mardi, a menacé de qualifier Anthropic de « risque pour la chaîne d'approvisionnement » ou d'invoquer la loi sur la production de défense pour contraindre l'entreprise à se conformer à ses exigences. Le département de la Défense a adressé à Anthropic sa « dernière et définitive offre » mercredi soir, lui laissant jusqu'à vendredi 17h01 (heure de l'Est) pour se décider.
Une porte-parole d'Anthropic a déclaré que si la société avait bien reçu une version actualisée du texte mercredi soir, cela ne représentait « pratiquement aucun progrès » et que « le nouveau langage, présenté comme un compromis , était associé à un jargon juridique qui permettrait de faire fi de ces garanties à volonté ».
Face à ces pressions, Dario Amodei a déclaré : « Le ministère de la Guerre a affirmé qu’il ne contracterait qu’avec trac entreprises d’IA acceptant “tout usage légal” et supprimant les mesures de protection dans les cas mentionnés ci-dessus. Il a menacé de nous exclure de ses systèmes si nous maintenons ces mesures ; il a également menacé de nous désigner comme un “ risque pour la chaîne d’approvisionnement”… Quoi qu’il en soit, ces menaces ne changent rien à notre position : nous ne pouvons en conscience accéder à leur demande. »
Le porte-parole du Pentagone, Sean Parnell, a déclaré jeudi que le département de n'avait « aucun intérêt » à utiliser les modèles d'Anthropic pour des armes entièrement autonomes ou pour mener une surveillance de masse des citoyens américains, ce qui, a-t-il précisé, est illégal. Il a souligné que le département souhaitait que l'entreprise accepte que ses modèles soient utilisés à « toutes fins légales », qualifiant cette demande de « simple et de bon sens ».
Cependant, le sous-secrétaire américain à la Défense , Michael , s'en est pris personnellement à Amodei jeudi soir, écrivant sur X que le dirigeant « ne souhaite rien de plus que de tenter de contrôler personnellement l'armée américaine ». Michael a ajouté : « C'est une honte que Dario Amodei soit un menteur et qu'il se prenne pour Dieu. »
En revanche, dans une lettre ouverte , plus de 200 employés de Google et d'OpenAI ont apporté leur soutien à la position d'Anthropic. Un ancien responsable du département de la Défense a également déclaré à la BBC que les justifications avancées par Hegseth pour utiliser le terme de « risque lié à la chaîne d'approvisionnement » étaient « extrêmement fragiles ».
Malgré le conflit, Dario Amodei a déclaré dans un communiqué qu'il était « profondément convaincu de l'importance existentielle de l'utilisation de l'IA pour défendre les États-Unis ». L'organisation reste « prête à poursuivre les discussions et s'engage à assurer la continuité opérationnelle du Département et des forces armées américaines », a déclaré un représentant d'Anthropic.

