Anthropic defil'ultimatum brutal du Pentagone visant à supprimer les protections de l'IA

- Anthropic a refusé les demandes du Pentagone de supprimer les mesures de protection de l'IA, mettant ainsi en péril sontracde 200 millions de dollars.
- Hegseth a fixé un ultimatum à vendredi alors que les négociations s'effondraient et que des responsables s'en prenaient personnellement à Amodei.
- Plus de 200 employés de Google et d'OpenAI ont soutenu Anthropic.
Anthropic a déclaré qu'elle ne reculerait pas dans un conflit avec le département américain de la Défense (DoD) concernant la manière dont sa technologie d'intelligence artificielle (IA) est utilisée.
Les concurrents , OpenAI, Google et xAI, ont également obtenutracdu département de la Défense américain (DoD) d'un montant maximal de 200 millions de dollars. Ces entreprises ont accepté que le DoD utilise leurs modèles à toutes fins légales au sein des systèmes militaires non classifiés.
Anthropic a signé son propretracde 200 millions de dollars avec le département de la Défense en juillet, et a été le premier laboratoire à intégrer ses modèles dans les flux de travail des missions sur des réseaux classifiés.
Cependant, la start-up spécialisée en intelligence artificielle est engagée depuis quelques semaines dans des négociations tendues avec le Pentagone. Selon une source proche des négociations, ces tensions « remontent à plusieurs mois », avant même que l'utilisation de Claude dans le cadre d'une opération américaine visant à capturer le président vénézuéliendent Maduro ne soit rendue publique.
Le principal différend porte sur la surveillance et les armes
Anthropic souhaite obtenir l'assurance que ses modèles ne seront pas utilisés pour des armes entièrement autonomes ou pour la surveillance intérieure de masse des Américains, tandis que le ministère de la Défense souhaite pouvoir utiliser ces modèles sans ces restrictions.
Concernant ces risques spécifiques, Dario Amodei a déclaré : « Dans certains cas précis, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques. Certaines utilisations dépassent également les capacités de la technologie actuelle, qui permet de réaliser des opérations sûres et fiables. »
Développant les préoccupations liées à la surveillance, Dario Amodei a déclaré dans son communiqué que l'intelligence artificielle puissante permet de « rassembler ces données éparses et individuellement anodines en une image complète de la vie de chaque personne, de manière automatiquematicà grande échelle ».
Il a fait remarquer que si Anthropic soutient l'utilisation de l'IA à des fins de renseignement étranger légitime, « l'utilisation de ces systèmes pour la surveillance intérieure de masse est incompatible avec les valeurs démocratiques ».
Menaces, échéances et guerre des mots
secrétaire à la Défense, Pete Hegseth, qui a rencontré Amodei au Pentagone mardi, a menacé de qualifier Anthropic de « risque pour la chaîne d'approvisionnement » ou d'invoquer la loi sur la production de défense pour contraindre l'entreprise à se conformer à ses exigences. Le département de la Défense a adressé à Anthropic sa « dernière et définitive offre » mercredi soir, lui laissant jusqu'à vendredi 17h01 (heure de l'Est) pour se décider.
Une porte-parole d'Anthropic a déclaré que si la société avait bien reçu une version actualisée du contrat mercredi soir, cela ne représentait « pratiquement aucun progrès » et que « le nouveau texte, présenté commeuncompromis, était associé à un jargon juridique qui permettrait de faire fi de ces garanties à volonté ».
Face à ces pressions, Dario Amodei a déclaré :« Le ministère de la Guerre a affirméqu’ilne contracterait qu’avectracentreprises d’IA acceptant “tout usage légal” et supprimant les mesures de protection dans les cas mentionnés ci-dessus. Il a menacé de nous exclure de ses systèmes si nous maintenons ces mesures ; il a également menacé de nous désigner comme un “ risque pour la chaîne d’approvisionnement”… Quoi qu’il en soit, ces menaces ne changent rien à notre position : nous ne pouvons en conscience accéder à leur demande. »
Le porte-parole du Pentagone, Sean Parnell, a déclaré jeudi que le département de n'avait « aucun intérêt » à utiliser les modèles d'Anthropic pour des armes entièrement autonomes ou pour mener une surveillance de masse des citoyens américains, ce qui, a-t-il précisé, est illégal. Il a souligné que le département souhaitait que l'entreprise accepte que ses modèles soient utilisés à « toutes fins légales », qualifiant cette demande de « simple et de bon sens ».
Cependant, le sous-secrétaire américain à la Défense,, Michael s'en est pris personnellement à Amodei jeudi soir, écrivant sur X que le dirigeant « ne souhaite rien de plus que de tenter de contrôler personnellement l'armée américaine ». Michael a ajouté : « C'est une honte que Dario Amodei soit un menteur et qu'il se prenne pour Dieu.»
En revanche, dans une lettre ouverte, plus de 200 employés de Google et d'OpenAI ont apporté leur soutien à la position d'Anthropic. Un ancien responsable du département de la Défense a également déclaré à la BBC que les justifications avancées par Hegseth pour utiliser le terme de « risque lié à la chaîne d'approvisionnement » étaient « extrêmement fragiles ».
Malgré le conflit, Dario Amodei a déclaré dans un communiqué qu'il était « profondément convaincu de l'importance existentielle de l'utilisation de l'IA pour défendre les États-Unis ». L'organisation reste « prête à poursuivre les discussions et s'engage à assurer la continuité opérationnelle du Département et des forces armées américaines », a déclaré un représentant d'Anthropic.
Si vous souhaitez une approche plus sereine de la DeFi et des cryptomonnaies , sans le battage médiatique habituel, commencez par cette vidéo gratuite.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















