Le Pentagone et Anthropic sont en conflit direct sur la manière dont l'intelligence artificielle peut être utilisée par l'armée américaine.
Le conflit porte sur les garanties empêchant le gouvernement d'utiliser l'IA pour cibler des armes de sa propre initiative ou pour mener une surveillance à l'intérieur des États-Unis. Ce désaccord, inscrit dans untracd'une valeur pouvant atteindre 200 millions de dollars, a actuellement bloqué les négociations.
Ce différend constitue un premier test permettant de mesurer l'influence réelle de la Silicon Valley à Washington après des années de tensions.
Les responsables de la défense et du renseignement souhaitent pouvoir déployer librementtronplus performants des outils d'IA les opérations de combat et de sécurité. Les dirigeants du secteur technologique, quant à eux, réclament des limites. Les négociations, qui s'éternisent depuis des mois, sont désormais dans l'impasse.
Le Pentagone poursuit ses efforts malgré les réticences d'Anthropic concernant l'utilisation des armes
Après de longues négociations, le département américain de la Défense et Anthropic sont dans l'impasse. Selon six personnes informées des pourparlers, aucune des deux parties n'a fait de concessions. Le conflit s'est exacerbé sous le second mandat dudent Donald Trump, les désaccords internes à l'administration étant désormais exposés au grand jour.
Dans un communiqué, Anthropic a déclaré que sa technologie est « largement utilisée par le gouvernement américain pour des missions de sécurité nationale et que des discussions constructives sont en cours avec le département de la Guerre sur les moyens de poursuivre cette collaboration ». Parallèlement, des représentants de l'entreprise ont fait part aux autorités de leurs inquiétudes quant à la possibilité que ces outils soient utilisés pour espionner des citoyens américains ou pour permettre à des armes de frapper des cibles sans contrôle humain suffisant.
Les dirigeants du Pentagone ont rejeté ces limitations. Ils ont fait référence à une note du 9 janvier sur la stratégie en matière d'IA, stipulant que l'armée devrait être libre d'utiliser des systèmes d'IA commerciaux dans le respect de la loi. Les responsables ont affirmé que les règles du secteur privé ne devraient pas dicter les choix opérationnels sur le champ de bataille.
Malgré tout, le Pentagone a toujours besoin qu'Anthropic poursuive son développement. Les maquettes sont conçues pour éviter toute action susceptible de causer des dommages. Les ingénieurs de l'entreprise devront procéder à des ajustements avant que l'armée puisse les utiliser comme elle le souhaite.
Ce bras de fer met en péril les activités de défense d'Anthropic à un moment délicat. La start-up de San Francisco prépare une future introduction en bourse. Elle a investi massivement pour remporter des contrats de sécurité nationale américains et influencer de l'intérieur la politique fédérale en matière d'IA.
Anthropic fait également partie des rares entreprises sélectionnées par le Pentagone l'an dernier. Parmi les autres figurent Google, xAI d'Elon Musk et OpenAI. Ces sociétés sont désormais au cœur des plans de l'armée américaine en matière d'intelligence artificielle.
Les mises en garde d'Anthropic ont déjà provoqué des tensions avec l'administration Trump. Dans un article de blog publié cette semaine, le PDG Dario Amodei a averti que l'IA devait soutenir la défense nationale « de toutes les manières possibles, sauf celles qui nous rapprocheraient de nos adversaires autocratiques »
Dario s'est également exprimé sur le recours à la force par le gouvernement aux États-Unis. Après les fusillades mortelles de citoyens américains lors de manifestations pour l'immigration à Minneapolis, il a qualifié ces décès d'« horreur » dans une publication sur X.

