I presunti rivali, il Segretario del Tesoro Scott Bessent e il Presidente della Federal Reserve Jerome Powell, hanno convocato d'urgenza a Washington i vertici delle maggiori banche statunitensi a causa delle preoccupazioni, diffuse negli ambienti governativi, riguardo alle possibili implicazioni del nuovo sistema di intelligenza artificiale di Anthropic in termini di rischio informatico.
Secondo quanto riportato da Bloomberg, l'incontro si sarebbe svolto martedì presso la sede del Dipartimento del Tesoro e avrebbe discusso la necessità di mettere in sicurezza i sistemi prima che strumenti come Mythos di Anthropic vengano utilizzati contro sistemi finanziari critici.
I dirigenti convocati erano a capo di banche che le autorità di regolamentazione considerano essenziali per il sistema finanziario. Tra gli invitati figuravano Jane Fraser di Citigroup, Ted Pick di Morgan Stanley, Brian Moynihan di Bank of America, Charlie Scharf di Wells Fargo e David Solomon di Goldman Sachs. Jamie Dimon di JPMorgan non ha potuto partecipare.
Arthur Hayes, membro della comunità crypto, ha reagito su X con una frecciatina, scrivendo: "Powell e Bessent hanno fornito la bibita cancerogena da abbinare al taco di Trump". Ha aggiunto uno screenshot dell'indice di liquidità del dollaro USA relativo a un periodo di un anno.
Passando ad altro, Scott e Powell avrebbero voluto che le banche comprendessero il potenziale pericolo legato al sistema Mythos di Anthropic e a modelli simili che potrebbero emergere in futuro. Avrebbero inoltre voluto che le aziende adottassero misure immediate per proteggere i propri sistemi, perché a quanto pare è questo che conta di più, e non l'opinione pubblica.
In precedenza, Cryptopolitan Secondo quanto riportato , Anthropic ha affermato che Mythos è in grado di individuare i punti deboli di ogni principale sistema operativo e browser web e di sfruttarli quando l'utente lo richiede.
Anthropic punta a un maggior numero di chip, mentre OpenAI prepara un prodotto per la sicurezza informatica destinato a partner selezionati
Nel frattempo, Reuters ha riportato in precedenza che Anthropic sta valutando la possibilità di progettare i propri chip. Tre fonti hanno affermato che l'azienda sta esplorando questa opzione poiché le aziende di intelligenza artificiale si trovano ad affrontare una carenza di chip necessari per addestrare ed eseguire modelli più avanzati.
Questi piani sono ancora in fase iniziale. Due persone a conoscenza della questione e una persona informata sui piani di Anthropic hanno affermato che l'azienda potrebbe ancora decidere di non produrre affatto i propri chip e continuare ad acquistarli.
Il contesto è caratterizzato da un'impennata della domanda per Claude. Anthropic ha dichiarato all'inizio di questa settimana che il suo fatturato annuo supererà i 30 miliardi di dollari nel 2026, rispetto ai circa 9 miliardi di dollari di fine 2025.
Per costruire ed eseguire Claude, Anthropic utilizza diversi tipi di chip, tra cui TPU prodotti da Google e chip di Amazon.
All'inizio di questa settimana, Anthropic ha anche firmato un accordo a lungo termine con Google e Broadcom, che contribuisce alla progettazione di queste TPU. Tale accordo si aggiunge all'impegno dell'azienda di investire 50 miliardi di dollari in infrastrutture informatiche statunitensitron.
Anche i concorrenti di Anthropic, Meta e OpenAI
Allo stesso tempo, OpenAI sta lavorando a un proprio prodotto per la sicurezza informatica. Una fonte vicina alla vicenda ha riferito ad Axios che OpenAI sta ultimando un prodotto con funzionalità avanzate di cybersecurity e prevede di rilasciarlo a un piccolo gruppo di partner. A febbraio, dopo il lancio di GPT-5.3-Codex, OpenAI ha presentato il suo progetto pilota Trusted Access for Cyber. In un post sul blog, l'azienda ha affermato che i gruppi partecipanti al programma, accessibile solo su invito, avrebbero avuto accesso a "modelli ancora più performanti o permissivi in ambito di sicurezza informatica, per accelerare le attività di difesa legittime". In quell'occasione, OpenAI ha anche stanziato 10 milioni di dollari in crediti API per i partecipanti.

