Microsoft demande à un tribunal américain de bloquer la décision du Pentagone de classer temporairement la société d'intelligence artificielle Anthropic comme un risque pour sa chaîne d'approvisionnement. Le géant technologique affirme qu'une telle mesure pourrait perturber l'accès de l'armée aux systèmes d'IA avancés et mettre en péril des milliards de dollars investis dans des entreprises privées.
Microsoft a récemment annoncé un investissement pouvant atteindre 5 milliards de dollars dans Anthropic, et la société affirme avoir besoin d'une du tribunal ordonnance pour éviter que les contratstracles technologies déjà utilisés par le gouvernement ne subissent des dommages immédiats.
Bien que le ministère américain de la Défense ait déclaré avoir besoin de défendre ses systèmes et ses opérations, les entreprises développant des outils d'IA avertissent que des restrictions brutales pourraient compromettre les partenariats et mettre en péril le leadership américain en matière de technologie.
Microsoft a déposé une requête auprès du tribunal de district des États-Unis pour le district nord de la Californie, demandant une ordonnance de restriction provisoire d'un juge qui empêcherait le Pentagone d'appliquer son interdiction à la technologie d'Anthropic dans tous lestracde défense existants.
Dans ce document, Microsoft a indiqué qu'une telle injonction permettrait de mettre en œuvre un déploiement plus fluide et d'éviter toute interruption dans l'utilisation continue des outils d'intelligence artificielle par l'armée. Sans cette injonction, Microsoft a averti que toute entreprise travaillant pour le compte du Pentagone pourrait être contrainte de modifier rapidement ses produits et les termes de sestracqui dépendent actuellement des modèles d'IA d'Anthropic.
Ce changement, selon l'entreprise, pourrait avoir des répercussions sur les opérations du département de la Défense. « Cela pourrait potentiellement perturber les forces armées américaines à un moment crucial », a déclaré Microsoft dans sa requête. Microsoft a déposé cette requête à titre d'amicus curiae et n'est donc pas directement concernée.
Cependant, selon l'entreprise, la décision du tribunal pourrait avoir un impact significatif sur ses activités et sur l'ensemble du secteur. Le coût de son financement influe également sur sa participation.
Microsoft prévoit d'investir jusqu'à 5 milliards de dollars dans Anthropic, l'une des entreprises d'intelligence artificielle à la croissance la plus rapide aux États-Unis, en novembre. Microsoft est déjà un investisseur important dans OpenAI, un développeur concurrent.
Le Pentagone qualifie Anthropic de risque pour la chaîne d'approvisionnement
La controverse a éclaté la semaine dernière lorsque le Pentagone a officiellement interdit l'utilisation de la technologie d'Anthropic dans de défensetracet a désigné l'entreprise comme un risque pour la chaîne d'approvisionnement.
Ce label a traditionnellement été associé à des entreprises liées à des adversaires étrangers. Lestracsous contrat avec le ministère de la Défense, dans le cadre de cette directive, doivent certifier que les modèles d'IA d'Anthropic ne sont pas utilisés dans des systèmes ou services liés aux activités du Pentagone.
Anthropic a immédiatement intenté une action en justice contre le ministère, arguant que cette désignation était à la fois sans précédentdentillégale, et a mis en cause le gouvernement fédéral. L'entreprise a déclaré que cette décision pourrait nuire considérablement à ses activités et menacer des contrats d'tracvaleur de plusieurs centaines de millions de dollars.
Le débat porte sur les modèles d'IA d'Anthropic, appelés Claude. L'entreprise négociait avec le Pentagone les modalités d'utilisation de cette technologie, mais les pourparlers ont échoué. Anthropic exigeait des garanties que ses systèmes ne seraient pas utilisés pour la fabrication d'armes entièrement autonomes ni pour la surveillance de masse à l'intérieur du pays.
Face à l'évolution de la situation aux États-Unis, Anthropic prévoit d'ouvrir un nouveau bureau à Sydney dans les prochaines semaines, renforçant ainsi sa présence en Australie et en Nouvelle-Zélande. Selon l'indice économique de l'entreprise, ces deux pays se classent respectivement quatrième et huitième au niveau mondial en termes d'utilisation de Claude.ai par habitant. Le bureau de Sydney deviendra le quatrième centre d'Anthropic dans la région Asie-Pacifique.
Les travailleurs du secteur technologique et les chercheurs en IA soutiennent Anthropic
La controverse a également rallié Anthropic au soutien de l'ensemble de la communauté de l'intelligence artificielle. Plus de 30 employés d'OpenAI et de Google DeepMind ont déposé une déclaration soutenant la plainte d'Anthropic. Parmi les signataires figurait le directeur scientifique de DeepMind, Jeff Dean.
Dans leur requête auprès du tribunal, les chercheurs ont fait valoir que la désignation du gouvernement constituait un abus de pouvoir arbitraire susceptible de nuire à l'ensemble du secteur de l'IA.
Ils ont fait remarquer que si le Pentagone était insatisfait de sontracavec Anthropic, il aurait simplement pu résilier l'accord et choisir un autre fournisseur au lieu de qualifier l'entreprise de menace pour sa chaîne d'approvisionnement.
Les employés ont également averti que cette mesure pourrait nuire à la compétitivité des États-Unis dans le domaine de l'intelligence artificielle en décourageant toute discussion ouverte sur les risques et les limites de cette technologie.
Peu après l'annonce de cette désignation par le Pentagone, le ministère de la Défense a signé un accord avec OpenAI, une décision qui aurait suscité des protestations de la part de certains employés d'OpenAI.

