Anthropic est tiraillée de toutes parts. D'un côté, des sociétés de capital-risque s'intéressent de près au fabricant de Claude avec des offres d'investissement qui valorisent l'entreprise jusqu'à 800 milliards de dollars, selon un article de Business Insider publié mardi.
Ce chiffre représente plus du double de la valorisation actuelle d'Anthropic. L'entreprise a finalisé en février une levée de fonds menée par GIC et Coatue, pour une valorisation de 380 milliards de dollars. Le mois dernier, OpenAI a clôturé une levée de fonds à 852 milliards de dollars.
Un autre signal nous parvient des marchés secondaires. Sur Caplight, plateforme où les investisseurs négocient des actions de sociétés non cotées, Anthropic est valorisée à 688 milliards de dollars, soit une hausse de 75 % en trois mois. Cette progression tracla croissance de l'entreprise autour de Claude Code, son produit de programmation par intelligence artificielle.
La semaine dernière, Anthropic a annoncé que son chiffre d'affaires annuel avait atteint 30 milliards de dollars, contre 9 milliards à la fin de l'année précédente. L'entreprise a également indiqué que plus de 1 000 entreprises clientes dépensaient désormais plus d'un million de dollars par an, un chiffre qui a doublé en moins de deux mois.
Les sociétés de capital-risque font pression sur Anthropic pour qu'elle atteigne une valeur de 800 milliards de dollars
Les discussions sur la nouvelle valorisation vont bon train, Anthropic attirant toujours plus l'attention grâce à un nouveau modèle appelé Claude Mythos. Ce modèle, dévoilé la semaine dernière, a suscité un vif intérêt dans le milieu de la sécurité informatique car il permet de déceler des failles logicielles importantes passées inaperçues lors de recherches humaines.
Malgré l'interdiction par ledent Donald Trump de l'utilisation fédérale de la technologie Anthropic, des responsables à travers Washington continuent de traiter avec cette entreprise.
D'après un ancien haut responsable technologique américain ayant une connaissance directe des discussions, des employés d'au moins deux grandes agences fédérales ont récemment contacté Anthropic au sujet de l'utilisation de Mythos dans le cadre de travaux de cyberdéfense.
Le Centre pour les normes et l'innovation en matière d'IA du département du Commerce teste également activement Mythos, selon un article de Politico citant quatre personnes au fait du dossier.
ces personnes figureraient un responsable actuel de la cybersécurité, un ancien responsable de la cybersécurité, un ancien membre de l'administration Trump et un ancien haut responsable de la sécurité nationale. Le centre évalue les modèles d'IA américains et étrangers afin d'identifier les risques et les opportunités.
Au Capitole, au moins trois commissions du Congrès ont organisé ou demandé des séances d'information avec Anthropic au cours de la semaine écoulée afin d'en savoir plus sur Mythos et ses capacités de cyberanalyse, selon trois assistants parlementaires travaillant sur la politique en matière d'IA.
Les agences fédérales continuent de tester Anthropic malgré l'interdiction du Pentagone par Trump
Le conflit a débuté fin février, lorsque Trump et le secrétaire à la Défense, Pete Hegseth, ont ordonné aux agences fédérales de cesser d'utiliser la technologie d'Anthropic après que le PDG, Dario Amodei, se soit opposé à ce que le Pentagone utilise ses modèles pour des attaques létales autonomes ou la surveillance de masse des citoyens américains. Le mois dernier, Hegseth a officiellement qualifié Anthropic de risque pour la chaîne d'approvisionnement.
Cette décision, inhabituelle pour une entreprise américaine, empêche de fait l'utilisation de ses modèles d'IA trac du ministère de la Défense . Malgré cela, certains services du gouvernement fédéral semblent assouplir cette règle face à l'intérêt croissant porté à Mythos.
Les mêmes tensions se sont fait sentir à Wall Street. Mardi, Jamie Dimon, PDG de JPMorgan Chase, a déclaré que les outils d'IA pourraient un jour contribuer à la protection des entreprises, mais qu'actuellement, ils créent davantage de failles. Il a précisé que JPMorgan testait la version préliminaire de Mythos d'Anthropic dans le cadre de sa stratégie visant à utiliser l'IA sans donner d'avantage aux attaquants. « L'IA a empiré les choses, elle les a rendues plus difficiles », a déclaré Jamie Dimon lors de la conférence téléphonique sur les résultats de la banque. « Elle crée des vulnérabilités supplémentaires, et peut-être, à terme, de meilleurs moyens de se renforcer. »
Interrogé plus tard au sujet de Mythos, Jamie a fait référence à l'avertissement d'Anthropic selon lequel le modèle avait déjà détecté des milliers de vulnérabilités dans des logiciels d'entreprise. « Cela montre qu'il reste encore beaucoup de vulnérabilités à corriger », a-t-il déclaré.
Jamie a ajouté que JPMorgan, la plus grande banque mondiale en termes de capitalisation boursière, investit massivement dans la cybersécurité, emploie des experts de haut niveau et entretient des contacts permanents avec les agences gouvernementales. Il a toutefois précisé que les banques restent connectées aux marchés boursiers et à d'autres systèmes externes, ce qui accroît les risques.

