Anthropic poursuit l'administration Trump pour allégations douteuses alors que la querelle au Pentagone continue de s'intensifier

Lundi, Anthropic a porté son différend avec l'administration Trump devant les tribunaux, ouvrant un nouveau front dans l'une des batailles les plus acharnées du secteur de l'IA. L'entreprise a intenté une action en justice après que l'administration l'a qualifiée de menace pour la sécurité nationale et a entrepris de mettre fin à sestracfédéraux.
Cette décision a placé Anthropic dans une catégorie généralement associée à des acteurs étrangers hostiles, et non à une entreprise américaine développant des modèles d'IA pour des projets gouvernementaux et commerciaux.
Dans sa plainte déposée auprès du tribunal du district nord de Californie, Anthropic a fait valoir que l'administration avait agi en dehors du cadre légal et avait utilisé le pouvoir fédéral comme moyen de punition après que l'entreprise se soit opposée à la manière dont le Pentagone souhaitait utiliser l'IA.
La plainte visait le ministère de la Défense, le secrétaire à la Défense Pete Hegseth, le secrétaire au Trésor Scott Bessent, le secrétaire d'État Marco Rubio et le secrétaire au Commerce Howard Lutnick.
Anthropic a déclaré devant le tribunal que les mesures prises par le gouvernement menaçaient l'une des entreprises privées d'IA à la croissance la plus rapide du pays et pourraient constituer un dangereux exemple pour les autres entreprises en désaccord avec Washington. L'entreprise a demandé au tribunal de déclarer ces mesures illégales.
La Maison Blanche a rapidement réagi. Une porte-parole a déclaré : « Ledent Trump ne permettra jamais à une entreprise d’extrême gauche, proche du wokisme, de mettre en péril notre sécurité nationale en dictant le fonctionnement de la plus grande et la plus puissante armée du monde. »
Des chercheurs soutiennent Anthropic après que le procès ait étendu le combat à toute la Silicon Valley
Peu après le dépôt de la plainte, 37 chercheurs en intelligence artificielle des sociétés concurrentes OpenAI et Google ont soumis un mémoire demandant au tribunal de se ranger du côté d'Anthropic. Ce soutien a démontré à quel point ce conflit dépassait le cadre d'une seule entreprise et d'un seultrac.
Leur requête avertissait que sanctionner une entreprise américaine de premier plan dans le domaine de l'IA pour des problèmes de sécurité pourrait nuire à la position plus générale du pays dans ce secteur.
Les chercheurs ont écrit : « Si elle est autorisée à se poursuivre, cette tentative de sanctionner l'une des principales entreprises américaines d'IA aura sans aucun doute des conséquences sur la compétitivité industrielle et scientifique des États-Unis dans le domaine de l'intelligence artificielle et au-delà. »
Ce mémoire a ajouté une pression supplémentaire à une affaire qui attirait déjà l'attention dans tout le secteur technologique.
Le véritable enjeu de ce débat est la définition des règles régissant l'utilisation des systèmes d'IA par le Pentagone. Lors des négociationstracavec le département de la Défense, Anthropic a exigé des garanties claires que ses outils ne seraient pas utilisés à des fins de surveillance intérieure de masse ni pour la fabrication d'armes autonomes.
Le Pentagone a rejeté cette approche. Sa position était simple : il respecte la loi, il ne se livrerait pas à de telles actions et l’entreprise devrait faire confiance à l’armée pour utiliser l’IA dans toute situation légale. Ce désaccord a contribué à faire capoter les négociations officielles, que le Pentagone a depuis déclarées terminées.
Le conflit s'est également étendu à la politique et au commerce. Les deux camps se sont affrontés au sujet de la décision de Trump d'autoriser l'exportation de puces d'IA vers la Chine. Des tensions sont également apparues concernant les liens d'Anthropic avec des organisations ayant fait des dons à des causes démocrates.
Ces problèmes ont fait de l'entreprise une cible de choix pour les alliés de Trump, même si le différend lui a valu un soutien accru de la part de certains clients et partenaires.
Trump et Hegseth intensifient la répression tandis qu'Anthropic lutte pour protéger untracde 200 millions de dollars
Le conflit s'est considérablement aggravé le 27 février, lorsque Hegseth a annoncé son intention de désigner Anthropic comme une entreprise à risque pour la chaîne d'approvisionnement du Pentagone. Ce dispositif est généralement utilisé pour les entreprises liées à des adversaires étrangers.
Dans le cadre de cette procédure, les hauts responsables du Pentagone doivent démontrer l'existence d'une menace réelle pour la sécurité. Hegseth et d'autres responsables ont fait valoir que le refus d'Anthropic d'autoriser l'armée à utiliser son IA dans tous les cas légaux constituait en soi un risque.
Leur argument était qu'une entreprise privée ne devrait pas pouvoir contrôler la manière dont les forces armées utilisent les technologies critiques, car une entreprise pourrait ultérieurement couper l'accès ou modifier les paramètres pendant les opérations.
Le même jour, Trump a ordonné aux agences fédérales de cesser d'utiliser Claude et leur a donné six mois pour passer à d'autres modèles d'IA. Anthropic a exploité ce point dans sa plainte, affirmant que ce délai de six mois démontre l'importance de ses systèmes pour le gouvernement.
L'entreprise a également déclaré que Trump n'avait pas respecté les procédures légales requises pour annuler untracfédéral. Ce contrat avec le ministère de la Défense pouvait atteindre 200 millions de dollars.
Les conséquences financières pourraient dépasser le cadre des activités gouvernementales directes. Les clients qui traitent également avec le Pentagone pourraient désormais devoir prouver qu'ils n'ont pas utilisé Claude dans le cadre d'activités du ministère de la Défense.
Cela pourrait nuire aux activités d'Anthropic, même en dehors dutracdu contrat lui-même. Toutefois, Microsoft et Google, investisseurs ou partenaires, ont déclaré qu'ils continueraient de collaborer avec l'entreprise sur des projets commerciaux n'impliquant pas le Pentagone.
Les partisans d'Anthropic affirment que le dossier de l'administration semble fragile pour une autre raison : le Pentagone a utilisé Claude dans des opérations en Iran, et jusqu'à récemment, Anthropic était le seul développeur de modèles d'IA autorisé à intervenir dans des environnements classifiés.
Une porte-parole d'Anthropic a déclaré : « Le recours judiciaire ne remet pas en cause notre engagement de longue date à exploiter l'IA pour protéger notre sécurité nationale, mais il s'agit d'une étape nécessaire pour protéger notre entreprise, nos clients et nos partenaires. » Elle a ajouté : « Nous continuerons d'explorer toutes les pistes de solution, y compris le dialogue avec le gouvernement. »
Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















