Google ha appena innescato un hard reset nella guerra dell'hardware AI, dopo che i suoi chip TPU hanno spinto Gemini 3 oltre GPT-5 nei testdent , sbaragliando contemporaneamente OpenAI e Nvidia.
Gemini 3 girava principalmente sulle unità di elaborazione tensor di Google, non sulle GPU Nvidia. Dopo la pubblicazione dei risultati, Sam Altman ha chiesto allo staff di concentrarsi nuovamente sulla correzione di ChatGPT e dei suoi modelli core.
La mossa ha fatto seguito a quello che OpenAI ha definito un momento "codice rosso" la scorsa settimana. Allo stesso tempo, gli analisti hanno affermato che Google prevede di più che raddoppiare la produzione di TPU entro il 2028, poiché la domanda di chip di intelligenza artificiale interni continua a crescere.
Google amplia i chip e spinge le vendite all'esterno
Google ora prevede di andare oltre l'utilizzo delle TPU solo all'interno del proprio cloud. Un solo accordo recente ha inviato 1 milione di TPU ad Anthropic, un'operazione valutata in decine di miliardi di dollari. Quel singolotracha scosso gli investitori di Nvidia.
La preoccupazione è semplice. Se Google vendesse più TPU a società esterne, Nvidia si troverebbe ad affrontare una perdita diretta di domanda di data center.
Gli analisti di chip di SemiAnalysis ora classificano le TPU "alla pari con Nvidia" sia per l'addestramento che per l'esecuzione di sistemi di intelligenza artificiale avanzati. Morgan Stanley afferma che ogni 500.000 TPU vendute ad acquirenti esterni potrebbero generare fino a 13 miliardi di dollari di fatturato per Google.
La banca prevede inoltre che TSMC produrrà 3,2 milioni di TPU il prossimo anno, per poi salire a 5 milioni nel 2027 e a 7 milioni nel 2028. Gli analisti affermano che la crescita nel 2027 sembra ora piùtronrispetto alle previsioni precedenti.
Google realizza i suoi processori principalmente con Broadcom, con il supporto aggiuntivo di MediaTek. L'azienda afferma che il suo vantaggio deriva dal pieno controllo verticale su hardware, software e modelli di intelligenza artificiale all'interno di un unico sistema. Koray Kavukcuoglu, architetto IA di Google e CTO di DeepMind, ha dichiarato: "La cosa più importante è l'approccio full stack. Credo che il nostro approccio sia unico".
Ha anche affermato che i dati di Google provenienti da miliardi di utenti forniscono una visione approfondita del funzionamento di Gemini in prodotti come la Ricerca e le Panoramiche AI.
Le azioni di Nvidia sono crollate il mese scorso dopo che The Information ha riportato che Meta aveva avuto colloqui con Google per l'acquisto di TPU. Meta ha rifiutato di commentare. Gli analisti ora affermano che Google potrebbe concludere accordi di fornitura simili con OpenAI, xAI di Elon Musk o Safe Superintelligence, con potenziali ricavi aggiuntivi superiori a 100 miliardi di dollari nell'arco di diversi anni.
Nvidia si difende mentre la storia della TPU si fa più profonda
Nvidia ha reagito dopo la svendita. L'azienda ha affermato di rimanere "una generazione avanti rispetto al settore" e di essere "l'unica piattaforma che supporta ogni modello di intelligenza artificiale". Ha inoltre affermato: "Continuiamo a fornire a Google". Nvidia ha aggiunto che i suoi sistemi offrono "prestazioni, versatilità e fungibilità superiori" rispetto alle TPU, che a suo dire sono pensate per framework specifici.
Allo stesso tempo, gli sviluppatori ora dispongono di strumenti che semplificano il passaggio dal software Cuda di Nvidia. Gli strumenti di programmazione basati sull'intelligenza artificiale ora aiutano a riscrivere i carichi di lavoro per i sistemi TPU più velocemente di prima. Ciò rimuove una delle difese di lock-introndi Nvidia.
La storia delle TPU è iniziata molto prima dell'attuale boom dell'IA. Nel 2013, Jeff Dean, responsabile scientifico di Google, tenne una presentazione interna dopo una svolta nelle reti neurali profonde per i sistemi di riconoscimento vocale. Jonathan Ross, all'epoca ingegnere hardware di Google, ricordò quel momento: "La prima diapositiva annunciava una buona notizia: l'apprendimento automatico finalmente funziona. La seconda diapositiva annunciava una cattiva notizia: non possiamo permettercelo". Dean calcolò che se centinaia di milioni di utenti avessero parlato con Google per tre minuti al giorno, la capacità dei data center avrebbe dovuto raddoppiare, con un costo di decine di miliardi di dollari.
Ross ha iniziato a costruire il primo TPU come progetto parallelo nel 2013, seduto vicino al team di oratori. "Abbiamo costruito quel primo chip con circa 15 persone", ha dichiarato nel dicembre 2023. Ross ora dirige Groq, azienda produttrice di chip per l'intelligenza artificiale.
Nel 2016, AlphaGo sconfisse il campione del mondo di Go Lee Sedol, e quella storica partita divenne una pietra miliare per l'intelligenza artificiale. Da allora, le TPU hanno alimentato i sistemi di ricerca, pubblicità e YouTube di Google per anni.
Google in passato aggiornava le sue TPU ogni due anni, ma due anni fa, nel 2023, tale ciclo è stato modificato in annuale.
Un portavoce di Google ha affermato che la domanda è in aumento su entrambi i fronti. "Google Cloud sta registrando una domanda crescente sia per le nostre TPU personalizzate che per le GPU Nvidia. Continueremo a supportare entrambe", ha affermato l'azienda.

