Trump maintient l'interdiction du Pentagone concernant Anthropic, invoquant des risques pour la sécurité nationale

- L'administration Trump insiste sur le fait que la liste noire d'Anthropic établie par le Pentagone était légale.
- Anthropic estime que le gouvernement américain cherche uniquement à la punir pour sa position sur la sécurité de l'IA.
- Cette entreprise spécialisée dans l'intelligence artificielle a apporté son aide au gouvernement américain dans certaines de ses opérations.
Dans des documents judiciaires déposés mardi, l'administration Trump a maintenu que la mise sur liste noire d'Anthropic par le Pentagone était juridiquement fondée, contestant les importantes poursuites intentées par l'entreprise.
le de Claude a intenté deux procès fédéraux, arguant qu'il faisait l'objet de représailles illégales pour avoir défendu la sécurité de l'IA. Il affirme que des responsables du Pentagone utilisent la liste noire pour le punir de son refus de lever les protections contre l'armement et la surveillance autonomes, violant ainsi ses droits garantis par le Premier Amendement.
Le 3 mars, le secrétaire à la Défense, Pete Hegseth, a officiellement classé Anthropic comme un risque pour la chaîne d'approvisionnement en raison de préoccupations liées à la sécurité nationale.
Anthropic a été placée sur liste noire pour des raisons de sécurité nationale.
Dans sa requête auprès du tribunal, l'administration Trump a indiqué: « Pour des raisons de sécurité nationale, les conditions d'utilisation de la technologie d'intelligence artificielle (IA) de la société Anthropic PBC sont devenues inacceptables pour le pouvoir exécutif. Anthropic reconnaît le droit du gouvernement de ne pas utiliser ses services et de se tourner vers d'autres fournisseurs d'IA. »
Elle a également soutenu que l'argument d'Anthropic fondé sur le Premier Amendement était fallacieux et ne résisterait pas à un examen juridique. Elle a affirmé que ses actions étaient motivées uniquement par des préoccupations de sécurité nationale, et non par une volonté de punir l'entreprise pour ses opinions sur la sécurité de l'IA.
Elle a également affirmé que, lors de ses discussions avec l'entreprise, l'attitude générale d'Anthropic l'avait amenée à se demander si elle conviendrait au ministère de la Défense.
D'après le document déposé, le Pentagone s'inquiéterait de la vulnérabilité que pourrait représenter Anthropic pour ses chaînes d'approvisionnement en matière de défense. Des responsables gouvernementaux craindraient que l'entreprise ne coupe le service de ses systèmes en plein conflit si l'utilisation de cette technologie lui déplaît.
Anthropic s'inquiète de donner au gouvernement une force autonome
Les négociations sont au point mort depuis des mois en raison du refus d'Anthropic de lever les règles de sécurité interdisant l'utilisation de l'IA dans la surveillance de masse ou les combats automatisés. L'entreprise spécialisée en IA maintient que permettre « toute utilisation légale », comme le demande le Département de la Défense, irait à l'encontre de ses principes fondamentaux de sécurité et augmenterait le risque d'utilisation abusive de ses systèmes Claude.
Jusqu'à présent, les militants pacifistes ont salué Anthropic comme un héros pour sa résistance à l'armée. Cependant, Dario Amodei, cofondateur et PDG de l'entreprise, a récemment souligné que la société d'IA et le gouvernement partagent globalement les mêmes objectifs. Margaret Mitchell, chercheuse en IA et responsable de l'éthique chez Hugging Face, une entreprise technologique, a même mis en garde : « Si l'on cherche des gentils et des méchants, en considérant comme gentils ceux qui ne soutiennent pas la guerre, on ne trouvera pas cela ici. »
Amodei a également fait remarquer: « Anthropic a bien plus de points communs que de différences avec le Département de la Guerre. » Il a partagé ses inquiétudes quant aux dangers des armes biologiques créées par l’IA et à l’ingérence chinoise, mais il estime également que les entreprises spécialisées en IA ont le devoir d’aider les gouvernements à gagner la guerre technologique contre les autocraties.
D'après ses propos, il est moins inquiet de l'utilisation de l'IA dans la guerre que terrifié à l'idée qu'une poignée de personnes aient le pouvoir de lancer une frappe de drones massive, automatisée et sans discernement d'une simple pression sur un bouton.
Pour l'instant, la direction maintient une position ferme contre les armes autonomes et la surveillance intérieure ; toutefois, l'entreprise s'est toujours montrée un allié très coopératif de l'armée américaine. Auparavant, elle avait modifié ses modèles d'IA pour le compte du département de la Défense ; elle a même intégré Claude aux réseaux les plus sécurisés et classifiés du gouvernement, notamment les systèmes d'imagerie satellite, d'analyse du renseignement, de modélisation et de simulation, ainsi que de planification opérationnelle
Dans sa récente plainte, l'entreprise a même souligné : « Anthropic n'impose pas les mêmes restrictions à l'utilisation de Claude par l'armée qu'à ses clients civils. Claude Gov est moins susceptible de refuser des demandes qui seraient interdites dans un contexte civil. »
Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les!
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)















