I nuovi chip Blackwell di Nvidia stanno cambiando la velocità con cui possono essere addestrati i sistemi di intelligenza artificiale.
Nell'ultima tornata di risultati di benchmarking pubblicati mercoledì da MLCommons, un gruppo no-profit che trac e confronta le capacità dei chip AI , l'architettura Blackwell programmata da Nvidia ha stabilito dei record.
Testato con il modello open source Llama 3.1 405B di Meta, uno dei suoi modelli di intelligenza artificiale più grandi e complessi, l'addestramento è stato completato in soli 27 minuti utilizzando i chip Blackwell. Questo è stato fatto con solo 2.496 GPU Blackwell, un ordine di grandezza inferiore a quanto sarebbe stato necessario con i precedenti chip Hopper di Nvidia.
Al contrario, i progetti precedenti utilizzavano oltre il triplo delle GPU Hopper per offrire prestazioni equivalenti. Con il chip Blackwell, la velocità era più che doppia, il che rappresentava un enorme balzo in avanti nell'efficienza della convergenza. Questo tipo di incremento delle prestazioni potrebbe tradursi in notevoli risparmi di tempo e costi per le organizzazioni che addestrano modelli da trilioni di parametri.
Si ritiene che questi risultati siano i primi MLCommons per l'addestramento di modelli a queste scale estreme e forniscano una misurazione concreta di quanto bene i chip gestiscano i carichi di lavoro di intelligenza artificiale più impegnativi.
CoreWeave e Nvidia guidano una scalabilità AI più intelligente
I risultati non sono stati solo una vittoria per Nvidia, ma hanno anche messo in luce il lavoro di CoreWeave, un'azienda di infrastrutture cloud che ha collaborato ai test. In una conferenza stampa, Chetan Kapoor, Chief Product Officer di CoreWeave, ha sottolineato una direzione generale che sta diventando sempre più sensata nel settore: abbandonare i grandi blocchi omogenei composti da decine di migliaia di GPU.
Invece di costruire un singolo, enorme e monolitico sistema di elaborazione dati, le aziende stanno ora prendendo in considerazione sottoinsiemi più piccoli e interconnessi, in grado di gestire l'addestramento di modelli su larga scala in modo più efficiente e con una migliore scalabilità.
Kapoor ha affermato che con una tecnica di questo tipo, gli sviluppatori possono continuare ad aumentare o ridurre il tempo necessario per addestrare modelli estremamente grandi con migliaia di miliardi di parametri.
Il passaggio a un'implementazione modulare dell'hardware è necessario anche perché le dimensioni e la complessità dei modelli di intelligenza artificiale sono in continua crescita.
Blackwell mette Nvidia in testa per l'addestramento dei modelli di intelligenza artificiale
Sebbene ultimamente l'attenzione si sia spostata sull'inferenza dell'IA, in cui modelli come ChatGPT1 rispondono alle domande degli utenti in tempo reale, la formazione è ancora il cavallo di battaglia dello sviluppo dell'IA.
La fase di addestramento conferisce a questi modelli la loro intelligenza, consentendo loro di comprendere il linguaggio, affrontare alcuni dei nostri problemi più complessi e persino produrre una prosa simile a quella umana. Il calcolo è estremamente impegnativo e richiede migliaia di chip ad alte prestazioni per funzionare per lunghi periodi, in genere giorni, se non settimane o mesi.
Tutto questo è cambiato con l'architettura Blackwell di Nvidia . Riducendo radicalmente i chip e i tempi necessari per addestrare modelli di intelligenza artificiale giganteschi, i chip Blackwell offrono a Nvidia una posizione di vantaggio in un mercato in cui velocità ed efficienza la fanno da padrone.
In passato, modelli di addestramento come Llama 3.1 405B di Meta, che ha migliaia di miliardi di parametri, dovevano essere eseguiti su enormi cluster di GPU e rappresentavano un processo costoso e ad alto consumo energetico.
Tali miglioramenti in termini di prestazioni rappresentano un notevole vantaggio in un momento in cui la domanda di modelli di intelligenza artificiale sempre più grandi e potenti è in forte crescita in molti settori, dalla sanità alla finanza, dall'istruzione ai veicoli autonomi.
Invia anche un messaggio chiaro ai rivali di Nvidia. Ora, aziende produttrici di chip come AMD e Intel, che stanno lavorando sui loro chip specifici per l'intelligenza artificiale, sono sottoposte a una pressione maggiore per mantenere un ritmo simile.
AMD ha sottoposto il modello al benchmark MLCommons, ma non ha mostrato risultati per un modello grande come il Llamas 3.1 405B. Nvidia è stata l'unica a testare il benchmark nella fascia alta, dimostrando di avere un hardware superiore e di essere pronta ad affrontare le sfide più difficili.

