Your bank is using your money. You’re getting the scraps.WATCH FREE

Microsoft intente une action en justice pour protéger son investissement de 5 milliards de dollars chez Anthrop

Dans cet article :

  • Microsoft a demandé à un tribunal américain de bloquer temporairement l'interdiction d'Anthropic par le Pentagone.
  • L'entreprise affirme que cette interdiction pourrait perturber les systèmes d'IA militaires et menacer son investissement prévu de 5 milliards de dollars dans Anthropic.
  • Le département de la Défense des États-Unis a qualifié Anthropic de risque pour la chaîne d'approvisionnement, une désignation généralement utilisée pour les adversaires étrangers.

Microsoft demande à un tribunal américain de bloquer la décision du Pentagone de classer temporairement la société d'intelligence artificielle Anthropic comme un risque pour sa chaîne d'approvisionnement. Le géant technologique affirme qu'une telle mesure pourrait perturber l'accès de l'armée aux systèmes d'IA avancés et mettre en péril des milliards de dollars investis dans des entreprises privées. 

Microsoft a récemment annoncé un investissement pouvant atteindre 5 milliards de dollars dans Anthropic, et la société affirme avoir besoin d'une du tribunal ordonnance pour éviter que les contratstracles technologies déjà utilisés par le gouvernement ne subissent des dommages immédiats. 

Bien que le ministère américain de la Défense ait déclaré avoir besoin de défendre ses systèmes et ses opérations, les entreprises développant des outils d'IA avertissent que des restrictions brutales pourraient compromettre les partenariats et mettre en péril le leadership américain en matière de technologie. 

Microsoft a déposé une requête auprès du tribunal de district des États-Unis pour le district nord de la Californie, demandant une ordonnance de restriction provisoire d'un juge qui empêcherait le Pentagone d'appliquer son interdiction à la technologie d'Anthropic dans tous lestracde défense existants. 

Dans ce document, Microsoft a indiqué qu'une telle injonction permettrait de mettre en œuvre un déploiement plus fluide et d'éviter toute interruption dans l'utilisation continue des outils d'intelligence artificielle par l'armée. Sans cette injonction, Microsoft a averti que toute entreprise travaillant pour le compte du Pentagone pourrait être contrainte de modifier rapidement ses produits et les termes de sestracqui dépendent actuellement des modèles d'IA d'Anthropic. 

Ce changement, selon l'entreprise, pourrait avoir des répercussions sur les opérations du département de la Défense. « Cela pourrait potentiellement perturber les forces armées américaines à un moment crucial », a déclaré Microsoft dans sa requête. Microsoft a déposé cette requête à titre d'amicus curiae et n'est donc pas directement concernée. 

Voir aussi :  Décembre : essai gratuit de Space Marine 2 et ajout classicau catalogue PS Plus Premium

Cependant, selon l'entreprise, la décision du tribunal pourrait avoir un impact significatif sur ses activités et sur l'ensemble du secteur. Le coût de son financement influe également sur sa participation.

Microsoft prévoit d'investir jusqu'à 5 milliards de dollars dans Anthropic, l'une des entreprises d'intelligence artificielle à la croissance la plus rapide aux États-Unis, en novembre. Microsoft est déjà un investisseur important dans OpenAI, un développeur concurrent.

Le Pentagone qualifie Anthropic de risque pour la chaîne d'approvisionnement

La controverse a éclaté la semaine dernière lorsque le Pentagone a officiellement interdit l'utilisation de la technologie d'Anthropic dans de défensetracet a désigné l'entreprise comme un risque pour la chaîne d'approvisionnement. 

Ce label a traditionnellement été associé à des entreprises liées à des adversaires étrangers. Lestracsous contrat avec le ministère de la Défense, dans le cadre de cette directive, doivent certifier que les modèles d'IA d'Anthropic ne sont pas utilisés dans des systèmes ou services liés aux activités du Pentagone. 

Anthropic a immédiatement intenté une action en justice contre le ministère, arguant que cette désignation était à la fois sans précédentdentillégale, et a mis en cause le gouvernement fédéral. L'entreprise a déclaré que cette décision pourrait nuire considérablement à ses activités et menacer des contrats d'tracvaleur de plusieurs centaines de millions de dollars. 

Le débat porte sur les modèles d'IA d'Anthropic, appelés Claude. L'entreprise négociait avec le Pentagone les modalités d'utilisation de cette technologie, mais les pourparlers ont échoué. Anthropic exigeait des garanties que ses systèmes ne seraient pas utilisés pour la fabrication d'armes entièrement autonomes ni pour la surveillance de masse à l'intérieur du pays. 

Voir aussi :  Le projet Stargate de SoftBank et OpenAI est au point mort six mois plus tard

Face à l'évolution de la situation aux États-Unis, Anthropic prévoit d'ouvrir un nouveau bureau à Sydney dans les prochaines semaines, renforçant ainsi sa présence en Australie et en Nouvelle-Zélande. Selon l'indice économique de l'entreprise, ces deux pays se classent respectivement quatrième et huitième au niveau mondial en termes d'utilisation de Claude.ai par habitant. Le bureau de Sydney deviendra le quatrième centre d'Anthropic dans la région Asie-Pacifique. 

Les travailleurs du secteur technologique et les chercheurs en IA soutiennent Anthropic

La controverse a également rallié Anthropic au soutien de l'ensemble de la communauté de l'intelligence artificielle. Plus de 30 employés d'OpenAI et de Google DeepMind ont déposé une déclaration soutenant la plainte d'Anthropic. Parmi les signataires figurait le directeur scientifique de DeepMind, Jeff Dean.

Dans leur requête auprès du tribunal, les chercheurs ont fait valoir que la désignation du gouvernement constituait un abus de pouvoir arbitraire susceptible de nuire à l'ensemble du secteur de l'IA.

Ils ont fait remarquer que si le Pentagone était insatisfait de sontracavec Anthropic, il aurait simplement pu résilier l'accord et choisir un autre fournisseur au lieu de qualifier l'entreprise de menace pour sa chaîne d'approvisionnement.

Les employés ont également averti que cette mesure pourrait nuire à la compétitivité des États-Unis dans le domaine de l'intelligence artificielle en décourageant toute discussion ouverte sur les risques et les limites de cette technologie.

Peu après l'annonce de cette désignation par le Pentagone, le ministère de la Défense a signé un accord avec OpenAI, une décision qui aurait suscité des protestations de la part de certains employés d'OpenAI.

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.

Partager le lien :

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan