Selon un nouveau rapport mis en lumière par Axios , les agences de renseignement américaines déploient activement des outils d'intelligence artificielle avancés d' Anthropic
Au cœur de la controverse se trouve le modèle Mythos Preview , qui, selon certaines sources, est actuellement utilisé par la National Security Agency (NSA). Ce développement révèle un clivage croissant au sein du gouvernement américain quant à la manière de concilier l'adoption rapide de l'IA et les contraintes de sécurité intérieure.
Le Pentagone a placé Anthropic sur liste noire début février 2026 suite à un différend concernant la sécurité de son IA et son utilisation militaire, avertissant officiellement que ses systèmes représentaient une vulnérabilité potentielle pour la chaîne d'approvisionnement. Cependant, les services de renseignement semblent privilégier les capacités de Mythos, notamment en matière de cybersécurité, par-delà ces préoccupations.
Selon certaines sources, la NSA a adopté Mythos, tout comme d'autres services du département. Pour l'instant, les détails de l'utilisation de Mythos par la NSA ne sont pas publics, mais ailleurs, le modèle est principalement utilisé pour analyser les environnements internes et y déceler les failles de sécurité. Ce modèle est considéré comme l'un des systèmes d'IA les plus avancés, doté detroncapacités d'« agentivité » lui permettant d'analyser et d'exploiter de manière autonome des systèmes complexes.
Ces révélations sur l'utilisation du modèle Mythos d'Anthropic par la NSA et le département de la Défense surviennent quelques jours après que des sources internes ont indiqué que la Maison-Blanche négociait son accès à ce modèle, alors même que les efforts pour interdire l'entreprise se poursuivaient. Plus récemment, le PDG, Dario Amodei, a également confirmé que la société était en contact avec des représentants du gouvernement et ouverte à la collaboration.
Certaines agences estiment que limiter l'accès à une IA aussi puissante pourrait désavantager les États-Unis sur le plan stratégique, notamment face à leurs rivaux géopolitiques. Cependant, des experts avertissent que les mêmes capacités qui rendent Mythos si précieux pour la défense pourraient également engendrer de nouveaux risques. Son aptitude à déceler des vulnérabilités à grande échelle pourrait être détournée de son usage initial, faisant craindre une escalade de la cyberguerre.
Des représentants de la Maison Blanche ont rencontré Amodei pour discuter de l'utilisation de Mythos dans les opérations gouvernementales
Seules une quarantaine d'organisations agréées sont autorisées à utiliser Mythos. Parmi elles, seules douze sont connues du public, la NSA figurant parmi la majorité non répertoriée. Au Royaume-Uni, des agences similaires à la NSA ont également indiqué avoir accès à ce modèle par le biais de leur Institut national de sécurité de l'IA.
Anthropic décrit Mythos comme un outil remarquablement puissant en cybersécurité, capable de détecter des failles profondément ancrées et de les exploiter de manièredent. Cette combinaison de détection avancée et d'analyse autonome a déjà suscité l'intérêt et l'inquiétude des décideurs politiques.
Vendredi, Amodei a rencontré la chef de cabinet de la Maison-Blanche, Susie Wiles, et le secrétaire au Trésor, Scott Bessent, afin d'examiner comment intégrer ce modèle en toute sécurité à l'infrastructure gouvernementale. Malgré les tensions publiques entre la Maison-Blanche et Anthropic, cette réunion souligne que le potentiel de ce modèle est tout simplement trop précieux pour répondre aux impératifs de sécurité fédérale.
Les deux parties ont qualifié les discussions de productives. La Maison Blanche a même déclaré : « Nous avons évoqué les possibilités de collaboration, ainsi que des approches et des protocoles communs pour relever les défis liés au déploiement à grande échelle de cette technologie. »
Anthropic a intenté une action en justice pour contester la désignation de risque lié à la chaîne d'approvisionnement
En mars, Anthropic a riposté en déposant une plainte contre le Pentagone afin de contester la désignation de sa chaîne d'approvisionnement comme présentant un risque, ce qui menaçait sestracgouvernementaux. C'était la première fois qu'un fournisseur national était qualifié de « insuffisamment sécurisé », ce qui interdisait de fait l'utilisation de ses outils par les administrations publiques.
L'équipe juridique d'Anthropic a qualifié la désignation de « risque » de tactique de vengeance après qu'Amodei a refusé la demande du DoD d'intégrer l'IA dans des systèmes d'armes entièrement autonomes et dans la surveillance intérieure de masse.
Comme l'avait précédemment rapporté Cryptopolitan , un juge de district californien s'est rangé du côté d'Anthropic et a temporairement bloqué l'étiquetage « risque lié à la chaîne d'approvisionnement ». Toutefois, une cour d'appel fédérale a depuis annulé cette suspension, maintenant ainsi l'étiquetage en vigueur pour le moment.
Au début des efforts pour établir la liste noire, ledent Donald Trump avait affirmé que les gauchistes radicaux qui dirigeaient l'entreprise tentaient d'imposer leurs conditions au ministère de la Défense. Il avait déclaré : « Nous n'en avons pas besoin, nous n'en voulons pas et nous ne ferons plus jamais affaire avec eux ! »
À l'heure actuelle, certains au sein du département de la Défense estiment encore que le refus d'Anthropic de coopérer pleinement prouve qu'ils débrancheraient leurs technologies en temps de guerre, ce qui les exposerait à un risque de fuite au combat. Cependant, d'autres responsables de l'administration sont impatients d'apaiser les tensions afin de mettre la main sur la technologie de pointe de l'entreprise.

