Anthropic, l'azienda di intelligenza artificiale di San Francisco che ha sviluppato il chatbot Claude, ha impedito alle aziende di proprietà cinese e alle loro filiali estere di utilizzare i suoi servizi di intelligenza artificiale. L'azienda ha affermato che questa misura protegge la sicurezza nazionale degli Stati Uniti e impedisce l'uso improprio da parte di governi autoritari.
Le nuove regole si basano su divieti precedenti che avevano già bloccato l'accesso a Russia, Iran e Corea del Nord. Anthropic ha affermato che le aziende di proprietà cinese, anche quelle con sede all'estero, potrebbero ancora trovare scappatoie per ottenere intelligenza artificiale avanzata e trasformarla in strumenti per uso militare o di intelligence.
Anthropic estende il divieto di intelligenza artificiale alle aziende controllate dalla Cina
Dopo aver bloccato l'accesso da paesi come Russia, Iran e Corea del Nord, Anthropic ora impedisce alle aziende o organizzazioni possedute per oltre il 50% da entità in queste regioni di utilizzare i suoi strumenti di intelligenza artificiale. Queste regole rimangono valide anche se tali aziende sono registrate e operano al di fuori dei loro paesi di origine.
In passato, le aziende degli stati autoritari creavano filiali in altre giurisdizioni e fingevano di avere sede all'estero, pur essendo comunque controllate dalle società madri in patria. Anthropic ha affermato che le aziende cinesi e altre entità soggette a restrizioni sfruttavano questa scappatoia per accedere, analizzare, replicare e adottare modelli di intelligenza artificiale sensibili che creavano rischi diretti per la sicurezza nazionale.
Nel suo annuncio, l'azienda ha sottolineato che una filiale di proprietà cinese che opera in Europa, nel Sud-est asiatico o nel Nord America non può essere consideratadent dalla sua casa madre. Questo perché è ancora vincolata dalla legge cinese, quindi il governo autoritario può esercitare pressioni su di essa affinché condivida informazioni sensibili o dia accesso a tecnologia straniera.
Anthropic vede questo come un grosso rischio, poiché questi governi stranieri potrebbero utilizzare ulteriormente la tecnologia americana per sviluppare progetti come reti di sorveglianza avanzate e sistemi di censura. Peggio ancora, potrebbero alimentare la tecnologia con droni militari autonomi e armi guidate dall'intelligenza artificiale.
Le autorità di regolamentazione hanno lanciato l'allarme su tali rischi più volte e alcune agenzie hanno risposto vietando l'uso di piattaforme di intelligenza artificiale sviluppate in Cina come DeepSeek . Questa decisione ha sconvolto il settore tecnologico globale, poiché la piattaforma di intelligenza artificiale era nota per le sue potenti capacità.
Per anni, l'amministratore delegato di Anthropic, Dario Amodei, ha esortato gli Stati Uniti a imporre restrizioni più severe al trasferimento di tecnologie di intelligenza artificiale in Cina. Sostiene che le aziende americane debbano limitare l'accesso ai loro prodotti per proteggere la sicurezza nazionale, invece di aspettare che sia il governo a costringerle a conformarsi.
Amodei e altri decisori politici fanno riferimento ad aziende cinesi come DeepSeek, Alibaba, Tencent e ByteDance. Sostengono che queste aziende abbiano investito molto nella realizzazione di sistemi di intelligenza artificiale avanzati e abbiano compiuto rapidi progressi rispetto ai concorrenti prodotti nella Silicon Valley. Avvertono che se queste aziende straniere avessero accesso ai modelli di Anthropic, potrebbero colmare il divario e incanalare tale conoscenza in applicazioni militari che potrebbero offrire ai loro governi un vantaggio maggiore a livello mondiale.
Le aziende tecnologiche cinesi devono affrontare restrizioni più severe da parte degli Stati Uniti
La decisione di Anthropic riflette la visione della Silicon Valley del proprio ruolo nella sicurezza globale. Per anni, la maggior parte delle aziende tecnologiche ha evitato questioni di politica estera, ma Anthropic ha scelto di farsi avanti e adottare misure proattive per la difesa nazionale, anche a costo di perdere entrate. Invece di aspettare che il governo elabori nuove leggi, l'azienda sta applicando le proprie regole e, allo stesso tempo, sta esortando Washington a rafforzare i controlli sulle esportazioni prima che sia troppo tardi.
Gli analisti affermano che la mossa di Anthropic proteggerà la sua reputazione di azienda focalizzata sulla sicurezza e mostrerà al mondo che le aziende di intelligenza artificiale più avanzate stanno iniziando a considerarsi una parte più importante dell'infrastruttura di difesa nazionale.
L'azienda rischia di perdere centinaia di milioni di fatturato a causa di queste nuove regole. Tuttavia, i suoi dirigenti rimangono fermi sulla loro decisione e insistono sul fatto che i rischi di un uso improprio superano qualsiasi battuta d'arresto finanziaria. Questo aiuta anche i decisori politici di Washington a preservare il vantaggio tecnologico degli Stati Uniti in un momento in cui la rivalità tra Stati Uniti e Cina è tesa e sta influenzando il futuro di settori importanti come i chip e l'informatica quantistica.
Anthropic potrebbe aver calcolato i benefici a lungo termine derivanti dalla protezione della propria tecnologia e dalla difesa degli interessi nazionali, e aver constatato che superano le perdite a breve termine. La politica aziendale ha un'influenza mondiale perché, con una valutazione di 183 miliardi di dollari e Amazon come uno dei suoi maggiori investitori, serve ora oltre 300.000 clienti aziendali in tutto il mondo. Il numero di account aziendali che generano più di 100.000 dollari all'anno sta crescendo a un ritmo impressionante.
Ma nonostante l'enorme tasso di crescita, i dirigenti dell'azienda affermano che la sicurezza e la responsabilità devono rimanere al centro del loro lavoro.
Foto di 