DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Un juge américain a statué que les actions du Pentagone contre Anthropic constituent des représailles contre la liberté d'expression

ParJai HamidJai Hamid
3 minutes de lecture
Un juge américain a statué que les actions du Pentagone contre Anthropic constituent des représailles contre la liberté d'expression.
  • Un juge américain a déclaré que le gouvernement pourrait avoir sanctionné Anthropic pour avoir parlé publiquement de son différend avec le Pentagone.
  • L'administration Trump a interdit l'utilisation d'Anthropic par le gouvernement après l'avoir qualifiée de risque pour la chaîne d'approvisionnement.
  • Le différend porte sur la demande du Pentagone d'un accès complet à l'IA d'Anthropic, tandis que l'entreprise a exprimé des inquiétudes quant à son utilisation militaire.

Un juge fédéral de San Francisco vient de dire tout haut ce que beaucoup pensaient déjà : le gouvernement américain s'en est pris à Anthropic par pure mesquinerie, parce que l'entreprise avait dénoncé les atrocités commises par son soi-disant ministère de la Guerre.

L'affaire a été portée devant un tribunal californien cette semaine, Anthropic tentant d'empêcher une interdiction totale de ses modèles d'IA au sein des systèmes gouvernementaux.

Le juge affirme que les actions du gouvernement ressemblent à une punition contre Anthropic

La juge Rita Lin l'a clairement indiqué au tribunal : « Il semble s'agir d'une tentative deripple Anthropic. » Elle a ajouté que de telles actions « constitueraient bien sûr une violation du Premier Amendement »

Rita a également souligné qu'après la médiatisation du différend entre Anthropic et le Pentagone, le gouvernement avait réagitron. Selon elle, « il semble avoir une réaction assez importante ». Elle a ajouté que cette réponse ne paraissait pas liée à un véritable impératif de sécurité nationale. Elle a déclaré devant le tribunal : « Elle ne semble pas répondre à une préoccupation de sécurité nationale clairement identifiée. »

Rita a ensuite déclaré que le gouvernement avait peut-être outrepassé ses prérogatives en cherchant à punir Anthropic. Elle n'a pas encore rendu de décision définitive, mais son ton ne laissait guère de doute quant à ses préoccupations.

« Tout le monde, y compris Anthropic, s'accorde à dire que le Département de la Guerre est libre de cesser d'utiliser Claude et de chercher un fournisseur d'IA plus permissif », a déclaré Rita. « Je ne pense pas que ce soit le cœur du problème. La question est tout autre : le gouvernement a-t-il enfreint la loi ? »

La plainte a été déposée au début du mois. Anthropic demande au tribunal de lever son étiquette de risque lié à sa chaîne d'approvisionnement. Cette étiquette a entraîné l'interdiction et empêché l'utilisation de ses modèles par le gouvernement. Le conflit oppose désormais l'entreprise à l'administration Trump. Le désaccord porte sur l'utilisation des outils d'IA dans le domaine militaire.

Michael Mongan, représentant Anthropic, a déclaré au tribunal qu'une telle action n'avait jamais été intentée auparavant contre une entreprise américaine. Il a affirmé : « C'est du jamais vu à l'égard d'une entreprise américaine. » Il a également précisé que le pouvoir invoqué était limité et inadapté à la situation.

Le Pentagone exige un accès complet tandis qu'Anthropic s'oppose à l'utilisation militaire de son IA

Avant cela, Anthropic travaillait en étroite collaboration avec le gouvernement. Elle avait conclu des accords avec plusieurs agences fédérales.

L'entreprise a signé untracde 200 millions de dollars avec le Pentagone en juillet. Elle a également été le premier laboratoire d'IA à faire fonctionner ses systèmes au sein de réseaux classifiés.

La situation a évolué en septembre. Des discussions ont été entamées concernant l'intégration de Claude à la plateforme GenAI.mil du département de la Défense. C'est à ce moment-là que les choses se sont enlisées. Le Pentagone souhaitait un accès complet à la technologie pour toute utilisation légale. Anthropic s'y est opposé.

Un avocat du gouvernement, Hamilton, a évoqué ce point devant le tribunal. Il a déclaré qu'Anthropic ne se contentait pas de refuser les termes dutrac. Il a dit :

« Anthropic ne fait pas preuve de simple obstination. Elle ne se contente pas de refuser les termes dutrac. Elle soulève plutôt des inquiétudes auprès du département de la Défense quant à la manière dont ce dernier utilise sa technologie dans le cadre de missions militaires. »

Dans le même temps, Anthropic poursuit le développement de sa technologie. Claude peut désormais prendre le contrôle de l'ordinateur d'un utilisateur et effectuer des tâches. Il est possible d'envoyer une requête depuis son téléphone, et le système s'en charge. Claude peut ouvrir des applications, utiliser un navigateur et remplir des feuilles de calcul.

Une démonstration montre un utilisateur en retard. Il demande à Claude d'exporter une présentation au format PDF et de la joindre à une invitation à une réunion. Claude effectue la tâche automatiquement.

Cette mise à jour place Anthropic dans la course au développement d'agents d'IA autonomes. Cette course s'est accélérée après d'OpenClaw cette année. OpenClaw connecte les modèles d'OpenAI et d'Anthropic. Les utilisateurs peuvent envoyer des tâches via des applications comme WhatsApp ou Telegram. L'application s'exécute sur l'appareil de l'utilisateur et peut accéder aux fichiers locaux.

Si vous souhaitez une approche plus sereine de la DeFi et des cryptomonnaies , sans le battage médiatique habituel, commencez par cette vidéo gratuite.

Partagez cet article
PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES