Anthropic impegna 20 milioni di dollari per contrastare la macchina politica di OpenAI

- Anthropic sostiene i candidati che si oppongono agli sforzi federali volti a bloccare le normative statali sull'intelligenza artificiale, contestando direttamente il fondo di guerra da 125 milioni di dollari di OpenAI.
- La Casa Bianca ha creato una task force del Dipartimento di Giustizia per citare in giudizio gli stati in merito alle leggi sull'intelligenza artificiale e minaccia di tagliare i finanziamenti federali.
- Colorado, California e Texas hanno normative sull'intelligenza artificiale che entreranno in vigore nel 2026.
La battaglia tra le aziende di intelligenza artificiale si è spostata dal mondo della tecnologia direttamente alla politica americana. Giovedì Anthropic ha annunciato che investirà 20 milioni di dollari nelle elezioni di medio termine.
Il denaro va a Public First Action, un gruppo di recente formazione che vuole che gli stati mantengano il potere di scrivere le regole dell'IA. Questo mette Anthropic in rotta di collisione sia con l'operato politico di OpenAI sia con la Casa Bianca di Trump, che vuole che Washington assuma il controllo delle politiche sull'IA a livello nazionale.
"Le aziende che sviluppano l'intelligenza artificiale hanno la responsabilità di contribuire a garantire che la tecnologia sia al servizio del bene pubblico, e non solo dei propri interessi", ha dichiarato nell'annuncio di giovedì.
Il gruppo sostiene i candidati che si oppongono ai tentativi di privare gli stati della loro autorità sulla tecnologia dell'intelligenza artificiale. Tra i primi a beneficiarne c'è Marsha Blackburn, la repubblicana candidata a governatore del Tennessee, che si è battuta contro le proposte di legge federali che avrebbero impedito alle legislature statali di approvare le proprie leggi sull'intelligenza artificiale.
Public First Action si scontra con Leading the Future, il gruppo avversario sostenuto daldent di OpenAI Greg Brockman e dall'investitore tecnologico Marc Andreessen. L'operazione ha raccolto 125 milioni di dollari dal suo lancio nell'agosto 2025. La società di venture capital di Andreessen, A16Z, detiene una partecipazione in OpenAI, rendendo la lotta per i finanziamenti ancora più personale tra gli sviluppatori di intelligenza artificiale rivali.
L'ordine esecutivo di Trump di dicembre intensifica la battaglia
A dicembre, ildent Trump ha firmato un'ordinanza che minaccia direttamente le leggi statali che Anthropic vuole proteggere. La direttiva impone alle agenzie federali di creare un quadro nazionale per l'intelligenza artificiale con regole minime, per poi utilizzarlo per ignorare le normative statali più severe.
L'ordine di Trump va oltre, creando una task force del Dipartimento di Giustizia specificamente progettata per contestare in tribunale le leggi statali sull'intelligenza artificiale. Gli stati con regole che Trump considera troppo rigide potrebbero perdere i finanziamenti federali. Il suo consulente per l'intelligenza artificiale, David Sacks, ha già individuato la legge del Colorado come "probabilmente la più eccessiva" in circolazione.
Diversi stati hanno normative che entreranno in vigore o saranno in fase di approvazione nel 2026. Il Colorado ha rinviato l'approvazione del suo AI Act al 30 giugno 2026, dopo aver subito pressioni, ma la legge continuerà a richiedere alle aziende che sviluppano sistemi di intelligenza artificiale "ad alto rischio" di prevenire discriminazioni nei loro algoritmi. La California ha approvato sette leggi sull'intelligenza artificiale nel 2025, con il Transparency in Frontier AI Act in vigore dal 1° gennaio 2026. Il Texas ha vietato l'uso dell'intelligenza artificiale per determinati scopi attraverso il suo Responsible AI Governance Act.
Cryptopolitan aveva precedentemente riportato che Anthropic aveva raccolto 2 miliardi di dollari con una valutazione di 60 miliardi di dollari lo scorso anno, seguito da un massiccio investimento di 15 miliardi di dollari da parte di Microsoft e Nvidia che ne aveva portato il valore a circa 350 miliardi di dollari. Questi investitori ora hanno miliardi in gioco nella regolamentazione dell'intelligenza artificiale.
Una profonda divisione ideologica spinge alla guerra della spesa
Il post sul blog dell'azienda di giovedì ha attaccato velatamente OpenAI senza nominarla direttamente, avvertendo che "ingenti risorse sono confluite in organizzazioni politiche che si oppongono" agli sforzi per rendere l'intelligenza artificiale più sicura.
Se i candidati sostenuti da Public First Action ottenessero un numero sufficiente di seggi, potrebbero bloccare le proposte di legge federali sulla prelazione al Congresso. Ciò manterrebbe in vita l'approccio stato per stato, almeno temporaneamente.
La rivalità tra Anthropic e OpenAI è molto più profonda dei semplici livelli di finanziamento. Fondata dai fratelli Dario e Daniela Amodei dopo aver lasciato OpenAI per problemi di sicurezza, Anthropic ha costruito la sua interadentsulla riduzione dei rischi legati alla tecnologia dell'intelligenza artificiale. OpenAI e i suoi sostenitori preferiscono regole più flessibili che consentano all'innovazione di procedere più velocemente.
Questa divergenza filosofica si riflette ora nei finanziamenti alle campagne elettorali e nell'attività di lobbying. , OpenAI ha chiesto a Trump di bloccare le normative statali sull'IA in cambio dell'accesso del governo ai suoi modelli. L'azienda ha sostenuto che la frammentazione delle leggi statali avrebbe danneggiato la leadership americana nel campo dell'IA.
Ma le probabilità sembrano scarse. Il vantaggio di finanziamento di sei a uno di Leading the Future offre alla fazione di OpenAI più fondi da investire in pubblicità, personale e operazioni sul campo. L'ordine esecutivo di Trump fornisce inoltre alle agenzie federali gli strumenti per contestare immediatamente le leggi statali, senza attendere il Congresso.
La battaglia rivela una spaccatura più profonda nella Silicon Valley su quanta supervisione debba essere riservata all'IA. Aziende come Anthropic, fondata da ex dipendenti di OpenAI che se ne sono andati a causa di disaccordi sulla sicurezza, generalmente favoriscono regoletronper impedire che l'IA arrechi danni. OpenAI e i suoi sostenitori preferiscono una regolamentazione più leggera che consenta all'innovazione di procedere più velocemente.
Gli elettori degli stati che hanno approvato leggi sull'intelligenza artificiale potranno sostanzialmente scegliere quale visione preferiscono al momento del voto in autunno. La loro decisione potrebbe determinare se lo sviluppo dell'intelligenza artificiale avverrà secondo un sistema frammentato di normative statali o secondo un sistema federale uniforme con meno restrizioni.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















