Lunedì le azioni Qualcomm sono salite del 23%, dopo che l'azienda ha annunciato il lancio di nuovi chip acceleratori di intelligenza artificiale per competere con Nvidia e AMD nella guerra dei chip più costosa fino ad oggi.
L'annuncio, fatto il 27 ottobre, è stata la dichiarazione più forte finora fatta dall'azienda circa l'ingresso nella corsa agli armamenti dei data center.
I due nuovi chip (AI200, previsto per il 2026, e AI250, in arrivo nel 2027) non saranno installati negli smartphone. Saranno utilizzati per alimentare interi rack raffreddati a liquido all'interno di enormi server farm di intelligenza artificiale.
Secondo CNBC, questi nuovi chip rappresentano un notevole passo avanti rispetto alla consueta area di comfort di Qualcomm, quella dei dispositivi mobili e wireless. Entrambi gli acceleratori possono riempire un rack completo, come gli attuali sistemi di Nvidia e AMD, che consentono a 72 chip di operare come se fossero uno solo.
L'idea è quella di fornire ai laboratori di intelligenza artificiale e agli hyperscaler la potenza di cui hanno bisogno per eseguire modelli di intelligenza artificiale su larga scala, senza dover ricorrere alla catena di fornitura di Nvidia o al secondo posto di AMD.
Qualcomm entra nella battaglia full-rack con i chip AI per data center
I modelli AI200 e AI250 sono realizzati utilizzando la stessa tecnologia presente nei chip dei telefoni Qualcomm, chiamata unità di elaborazione neurale (NPU) Hexagon.
Durga Malladi, direttore generale per i data center e l'edge dell'azienda, ha dichiarato ai giornalisti la scorsa settimana: "Volevamo prima metterci alla prova in altri settori e, una volta rafforzata la nostra posizione lì, è stato piuttosto facile per noi salire di livello e arrivare al livello dei data center"
Questi rack sono progettati per l'inferenza, non per l'addestramento. Ciò significa che Qualcomm non sta cercando di realizzare chip che aiutino ad addestrare modelli come i GPT di OpenAI, che sono stati addestrati su GPU Nvidia.
L'obiettivo è invece quello di far funzionare quei modelli in modo più rapido ed economico una volta che sono stati addestrati. È lì che si verificano la maggior parte dei carichi di lavoro reali.
E qui girano soldi... soldi veri. McKinsey afferma che entro il 2030 il mondo spenderà 6.700 miliardi di dollari in data center, e la maggior parte di questa cifra sarà destinata all'hardware per l'intelligenza artificiale. Nvidia controlla oggi oltre il 90% di questo mercato e vanta una capitalizzazione di mercato di oltre 4.500 miliardi di dollari. Ma i clienti iniziano a essere insofferenti.
OpenAI ha recentemente annunciato l'acquisto di chip da AMD e potrebbe persino rilevare una quota dell'azienda. Google, Amazon e Microsoft stanno progettando i propri acceleratori di intelligenza artificiale. Tutti vogliono un'opzione che non comporti la fila dietro una dozzina di altri laboratori di intelligenza artificiale solo per ottenere una fornitura di GPU da Nvidia.
Consumo energetico, flessibilità e memoria contraddistinguono Qualcomm
Malladi ha affermato che i rack assorbono circa 160 kilowatt, il che equivale al consumo energetico dei rack Nvidia. Qualcomm, tuttavia, sostiene che i suoi sistemi siano più economici da gestire, soprattutto per i fornitori di servizi cloud.
L'azienda venderà anche i singoli componenti separatamente, dando ai clienti la libertà di realizzare rack personalizzati. "Abbiamo cercato di garantire che i nostri clienti possano scegliere se acquistare tutto o dire 'Mescolerò e abbinerò'", ha aggiunto Malladi.
Anche Nvidia e AMD potrebbero finire per acquistare parti dello stack Qualcomm. Tra queste, le sue unità di elaborazione centrale (CPU), che Malladi ha affermato saranno disponibili come componenti indipendenti. Il prezzo completo di chip, schede e rack non è stato divulgato. Qualcomm non ha confermato nemmeno quante NPU possono essere inserite in un rack.
All'inizio di quest'anno, Qualcomm ha firmato un accordo con Humain, azienda saudita, che prevede di installare chip di inferenza Qualcomm nei data center, utilizzando fino a 200 megawatt di potenza. Grazie a questo accordo, Humain è diventato uno dei primi grandi clienti per i sistemi rack-scale.
L'azienda ha anche affermato che le sue schede IA gestiscono 768 gigabyte di memoria, una quantità superiore a quella attualmente offerta da Nvidia o AMD. Ha inoltre affermato una migliore efficienza in termini di consumo energetico e costi di gestione, sebbene non abbia fornito cifre esatte.

