Anthropic, la société d'intelligence artificielle de San Francisco qui a créé le chatbot Claude, a interdit aux entreprises chinoises et à leurs filiales à l'étranger d'utiliser ses services d'IA. L'entreprise a déclaré que cette mesure visait à protéger la sécurité nationale des États-Unis et à empêcher toute utilisation abusive par des gouvernements autoritaires.
Ces nouvelles règles s'appuient sur des interdictions antérieures qui bloquaient déjà l'accès à la Russie, à l'Iran et à la Corée du Nord. Anthropic a indiqué que les entreprises chinoises, même celles implantées à l'étranger, pouvaient encore exploiter des failles pour se procurer des IA avancées et les transformer en outils à des fins militaires ou de renseignement.
Anthropic étend son interdiction de l'IA aux entreprises contrôlées par la Chine
Après avoir bloqué l'accès à ses services depuis des pays comme la Russie, l'Iran et la Corée du Nord, Anthropic interdit désormais l'utilisation de ses outils d'IA aux entreprises ou organisations détenues à plus de 50 % par des entités situées dans ces régions. Ces règles restent applicables même si ces entreprises sont enregistrées et exercent leurs activités hors de leur pays d'origine.
Par le passé, des entreprises d'États autoritaires créaient des filiales dans d'autres pays et se faisaient passer pour des entreprises étrangères, tout en restant contrôlées par leurs sociétés mères restées dans leur pays d'origine. Selon Anthropic, des entreprises chinoises et d'autres entités soumises à des restrictions exploitaient cette faille pour accéder à des modèles d'IA sensibles, les analyser, les reproduire et les adopter, ce qui représente un risque direct pour la sécurité nationale.
Dans son communiqué, l'entreprise a souligné qu'une filiale chinoise opérant en Europe, en Asie du Sud-Est ou en Amérique du Nord ne peut être considérée commedent de sa maison mère. En effet, soumise à la législation chinoise, elle peut être contrainte par le gouvernement autoritaire de divulguer des informations sensibles ou de donner accès à des technologies étrangères.
Anthropic considère cela comme un risque majeur, car ces gouvernements étrangers pourraient exploiter davantage la technologie américaine pour développer des projets tels que des réseaux de surveillance sophistiqués et des systèmes de censure. Pire encore, ils pourraient intégrer cette technologie à des drones militaires autonomes et à des armes guidées par intelligence artificielle.
Les autorités de régulation ont tiré la sonnette d'alarme à plusieurs reprises concernant ces risques, et certaines agences ont réagi en interdisant l'utilisation de plateformes d'IA développées en Chine, comme DeepSeek . Cette interdiction a choqué le secteur technologique mondial, car cette plateforme d'IA était réputée pour ses puissantes capacités.
Depuis des années, Dario Amodei, PDG d'Anthropic, exhorte les États-Unis à imposer des restrictions plus strictes aux transferts de technologies d'IA vers la Chine. Il soutient que les entreprises américaines doivent limiter l'accès à leurs produits afin de protéger la sécurité nationale, au lieu d'attendre que le gouvernement les y contraigne.
Amodei et d'autres responsables politiques citent des entreprises chinoises comme DeepSeek, Alibaba, Tencent et ByteDance. Ils affirment que ces entreprises ont investi massivement dans le développement de systèmes d'IA avancés et ont réalisé des progrès rapides par rapport à leurs concurrents de la Silicon Valley. Ils préviennent que si ces entreprises étrangères accèdent aux modèles d'Anthropic, elles pourraient combler leur retard et exploiter ce savoir-faire à des fins militaires, conférant ainsi à leurs gouvernements un avantage considérable à l'échelle mondiale.
Les entreprises technologiques chinoises sont confrontées à des restrictions américaines plus strictes
La décision d'Anthropic reflète la vision qu'a la Silicon Valley de son rôle dans la sécurité mondiale. Pendant des années, la plupart des entreprises technologiques ont évité les questions de politique étrangère, mais Anthropic a choisi de prendre les devants et d'agir de manière proactive en matière de défense nationale, même au prix d'une perte de revenus. Au lieu d'attendre que le gouvernement élabore de nouvelles lois, l'entreprise applique ses propres règles et, parallèlement, exhorte Washington à renforcer les contrôles à l'exportation avant qu'il ne soit trop tard.
Selon les analystes, cette initiative d'Anthropic protégera sa réputation d'entreprise axée sur la sécurité et montrera au monde que les entreprises d'IA les plus avancées commencent à se considérer comme un élément plus important de l'infrastructure de défense nationale.
L'entreprise risque de perdre des centaines de millions de dollars de revenus à cause de ces nouvelles règles. Pourtant, ses dirigeants maintiennent leur décision et insistent sur le fait que les risques d'abus l'emportent sur tout revers financier. Cela permet également aux décideurs politiques à Washington de préserver l'avance technologique américaine à un moment où la rivalité sino-américaine est tendue et compromet l'avenir de secteurs clés comme les semi-conducteurs et l'informatique quantique.
Anthropic a probablement calculé les avantages à long terme de la protection de sa technologie et de la défense des intérêts nationaux, et a constaté qu'ils l'emportent sur les pertes à court terme. La politique de l'entreprise a une influence mondiale car, avec une valorisation de 183 milliards de dollars et Amazon parmi ses principaux investisseurs, elle compte aujourd'hui plus de 300 000 clients professionnels à travers le monde. Le nombre de comptes d'entreprises générant plus de 100 000 dollars de chiffre d'affaires annuel croît à un rythme impressionnant.
Mais malgré son taux de croissance fulgurant, les dirigeants de l'entreprise affirment que la sécurité et la responsabilité doivent rester au cœur de son activité.
Photo de 