OpenAI sta abbozzando quello che sembra il progetto di una civiltà costruita dalle macchine, alimentata dai propri chip, dalla propria infrastruttura e da elettricità sufficiente ad illuminare due città di New York.
La visione di una grande città basata sull'intelligenza artificiale dell'azienda si basa su un'idea quasi impossibile da realizzare: progettare e produrre miliardi di chip personalizzati in collaborazione con Broadcom per supportare quella che il CEO Sam Altman definisce la "spina dorsale informatica" del futuro.
Sam ha dichiarato al Wall Street Journal che per fornire i servizi di intelligenza artificiale richiesti dalle persone sarà necessario almeno un chip specifico per l'intelligenza artificiale per utente, una previsione allucinante che si aggira intorno ai miliardi.
Ali Farhadi, a capo dell'Allen Institute for AI, ha appoggiato questa ipotesi, affermando che se l'IA sostituirà il lavoro umano al ritmo promesso, "il mondo avrà bisogno di tanti chip per l'IA quanti ne ha di quelli convenzionali". Per OpenAI, si tratta di controllo: sui costi, sul consumo energetico e sulla sopravvivenza a lungo termine dei suoi modelli, man mano che la domanda esplode.
OpenAI collega Broadcom, Nvidia e i giganti della memoria per il calcolo di nuova generazione
Naturalmente Nvidia domina ancora il settore dell'addestramento dell'intelligenza artificiale, con una quota di mercato di circa il 70%, motivo per cui OpenAI deve continuare a utilizzare le sue GPU per l'addestramento dei modelli.
Ma OpenAI sta ora dividendo la pipeline: l'addestramento avviene su Nvidia, l'inferenza (il processo di fornitura delle risposte agli utenti) si sposta sul silicio personalizzato di Broadcom. Questo design a duetracpotrebbe ridurre le spese e il consumo energetico su una scala in cui ogni punto percentuale conta.
Jordan Nanos, ricercatore nel settore dei semiconduttori presso SemiAnalysis, ha affermato che Broadcom sta aiutando OpenAI a "rivisitare la tipica ricetta dei chip per l'intelligenza artificiale". Questi chip non saranno generici. Vengono progettati specificamente per i modelli di OpenAI, che si basano su memorie ad alta larghezza di banda, fornite da Samsung e SK Hynix, due aziende con cui la società ha recentemente stretto una partnership.
Questo tipo di memoria consente uno spostamento più rapido dei dati tra i processori, fondamentale per sistemi come Pulse di OpenAI, un agente di intelligenza artificiale che analizza il web quotidianamente per informare gli utenti. Pulse consuma così tanta potenza di calcolo che Sam ha affermato che è limitato a chi paga 200 dollari al mese per il livello Pro.
Questa dipendenza dalla memoria ad alta larghezza di banda è direttamente collegata al funzionamento dei modelli di OpenAI. Le prime reti neurali erano "dense", attivando ampie sezioni dei loro sistemi a ogni query. Quelle più recenti utilizzano la "sparsità", che attiva solo specifiche sezioni specifiche.
Invece di utilizzare il 25% del modello per rispondere a una domanda, i sistemi moderni ne attivano solo una frazione percentuale. Questa differenza riduce drasticamente il consumo energetico e accelera i tempi di risposta. Quando un chip è costruito attorno a questa logica sparsa, l'efficienza aumenta vertiginosamente, e Broadcom è l'azienda che rende possibile questo hardware.
I supercomputer AI su scala gigawatt di OpenAIdefil'infrastruttura
Sam ha affermato che l'attuale capacità di calcolo di OpenAI è di circa 2 gigawatt, distribuita in data center globali. La partnership con Broadcom mira a raggiungere i 10 gigawatt entro il 2030, formando la base fisica per quelle che gli addetti ai lavori chiamano "città dell'intelligenza artificiale", densi campus di server, storage e interconnessioni personalizzate, collegati tra loro dai chip di rete Tomahawk Ultra di Broadcom.
Questa è solo una parte dell'onda. Nelle ultime tre settimane, OpenAI ha aggiunto 16 gigawatt di capacità grazie a nuovi accordi con AMD e Nvidia, portando il totale a livelli che potrebbero richiedere quasi 1.000 miliardi di dollari di investimenti.
Il Memphis Colossus di xAI ha già raggiunto 1,21 gigawatt questo autunno. L'impianto Hyperion di Meta in Louisiana è stato approvato per 2,3 gigawatt, con Mark Zuckerberg che punta a 5 gigawatt. La corsa all'energia dell'intelligenza artificiale è ufficialmente globale.
Sam ha descritto questa trasformazione come "il più grande progetto industriale congiunto della storia", affermando che anche questi accordi sono "una goccia nel mare rispetto a dove dobbiamo arrivare". Parte del suo obiettivo è diversificare i fornitori.
Il campus Stargate di Abilene, in Texas, realizzato da Oracle, si concentrerà sulla formazione dell'intelligenza artificiale, principalmente su chip Nvidia. L'hardware AMD gestirà i carichi di lavoro di inferenza, mentre il silicio personalizzato di Broadcom colmerà il divario di efficienza.
Come ha affermato Nanos, "OpenAI guarda molto lontano nel futuro e cerca di assicurarsi di avere accesso a una fornitura sufficiente di chip"

