Anthropic connaît une croissance fulgurante. La société d'intelligence artificielle, soutenue par Amazon et dirigée par d'anciens cadres d'OpenAI, a confirmé mardi avoir levé 13 milliards de dollars, ce qui porte sa valorisation à 183 milliards de dollars.
Cela représente trois fois sa valeur en mars, ce qui en fait l'une des hausses de valorisation les plus rapides que la Silicon Valley ait connues jusqu'à présent en 2025.
Ce tour de table a été mené par Iconiq, Fidelity Management & Research et Lightspeed Venture Partners. Des acteurs majeurs comme Altimeter, General Catalyst et Coatue ont également participé au financement. Le directeur financier d'Anthropic, Krishna Rao, a déclaré que cette levée de fonds témoignait de l'étroite collaboration de l'entreprise avec ses investisseurs.
« Ce financement témoigne de l’extraordinaire confiance des investisseurs dans nos performances financières et de la solidité de leur collaboration avec nous pour continuer à alimenter notre croissancedentprécédent », a déclaré Krishna.
Le lancement de Claude donne un coup de fouet à la croissance
Depuis l'annonce de Claude en mars 2023, la valorisation d'Anthropic a explosé. L'entreprise revendique désormais plus de 300 000 clients professionnels et un chiffre d'affaires annualisé de 5 milliards de dollars (chiffres d'août), contre seulement 1 milliard de dollars en début d'année. Soit une multiplication par cinq en moins d'un an.
Anthropic a été fondée par d'anciens employés d'OpenAI, dont son PDG, Dario Amodei. Ce détail est important, car la rivalité entre les deux entreprises s'intensifie rapidement. OpenAI fait régulièrement la une des journaux depuis le lancement de ChatGPT fin 2022. L'entreprise prépare une introduction en bourse qui la valoriserait à 500 milliards de dollars, selon CNBC .
En mars, OpenAI a levé 40 milliards de dollars, pour une valorisation de 300 milliards de dollars, un record absolu pour une entreprise technologique privée. Le mois dernier, elle a récolté 8,3 milliards de dollars supplémentaires liés à ce même tour de table. Parallèlement, elle a lancé GPT-5, qu'OpenAI qualifie de plus rapide et « bien plus utile » que les modèles précédents. Cependant, tout le monde n'est pas satisfait. Certains utilisateurs ont déploré l'absence de certaines fonctionnalités de GPT-4. « Nous avons clairement sous-estimé l'importance que les utilisateurs accordent à certaines fonctionnalités appréciées dans GPT-4, même si GPT-5 est plus performant dans la plupart des domaines », a déclaré Sam Altman, PDG d'OpenAI, sur X.
Anthropic indique que ce nouveau financement soutiendra la recherche sur la sécurité de l'IA, permettra d'adapter ses capacités à la demande des grandes entreprises et favorisera son expansion internationale. Ce sont là ses trois priorités.
Anthropic modifie sa politique de données et fixe une date limite pour les utilisateurs
Un autre changement majeur s'opère en coulisses. Anthropic modifie profondément sa façon de collecter et de stocker les données des utilisateurs, et les personnes utilisant Claude ont jusqu'au 28 septembre pour décider si leurs conversations peuvent servir à entraîner les modèles d'IA de l'entreprise. Il s'agit d'un revirement complet par rapport à leur politique précédente.
Avant cette mise à jour, les utilisateurs de Claude étaient informés que leurs données seraient effacées après 30 jours, sauf en cas d'infraction à une règle ou de nécessité légale de conservation prolongée, auquel cas elles pouvaient être conservées jusqu'à deux ans. C'est désormais du passé. Sauf opposition de leur part, Anthropic conservera leurs conversations et sessions de programmation pendant cinq ans et utilisera ces informations pour entraîner les futurs modèles Claude.
Cette politique concerne tous les utilisateurs individuels de Claude Free, Claude Pro, Claude Max et Claude Code. Les clients professionnels utilisant Claude Gov, Claude for Work, Claude for Education ou accédant au modèle via l'API ne sont pas concernés. Cette approche est similaire à celle d'OpenAI qui protège ses clients entreprises en n'utilisant pas leurs données pour l'entraînement.
Anthropic n'a pas fourni d'explication complète, hormis un article de blog. L'entreprise affirme toutefois que cette nouvelle politique repose sur le « choix de l'utilisateur ». Si les utilisateurs ne se désinscrivent pas, ils contribueront à l'amélioration de l'IA. Selon l'entreprise, cela permettra à Claude d'être plus performant en matière de programmation et de raisonnement, et contribuera également à réduire le nombre de messages inoffensifs signalés comme malveillants.
Pourtant, la véritable raison est claire. Aujourd'hui, toutes les entreprises spécialisées en IA ont besoin d'énormes quantités de données issues du monde réel. Les conversations de Claude leur fournissent précisément cela. L'entraînement de modèles complexes est impossible sans des millions de conversations de qualité. Anthropic dispose ainsi des atouts nécessaires pour rivaliser avec OpenAI et Google : des données à grande échelle, directement issues des utilisateurs.

