Nvidia ha deciso di riprogettare i suoi server di intelligenza artificiale attorno a chip di memoria simili a quelli degli smartphone, innescando una vera e propria rivoluzione nel settore dei semiconduttori. Una ricerca di Counterpoint ha rivelato che questo cambiamento potrebbe raddoppiare i prezzi globali delle memorie per server entro la fine del 2026.
Secondo la ricerca, Nvidia è passata dalla memoria server DDR5 alla LPDDR, un chip a basso consumo energetico comunemente utilizzato nei dispositivi mobili. Il passaggio rientra negli sforzi di Nvidia per ridurre il consumo energetico dei server di intelligenza artificiale, considerati ad alto consumo energetico nei moderni data center.
Sebbene la nuova architettura adottata da Nvidia ridurrà i costi operativi, alcuni analisti sostengono che sta creando una forte pressione lungo tutta la filiera della memoria .
I prezzi delle DRAM aumentano del 171% mentre Samsung e Micron danno priorità all'HBM per l'intelligenza artificiale
Finora, i produttori di memorie hanno spostato la maggior parte della loro attenzione sulle memorie ad alta larghezza di banda (HBM), utilizzate principalmente negli acceleratori di intelligenza artificiale avanzati, con conseguente riduzione della produzione di memorie DRAM. Secondo una ricerca tron il che ha causato una carenza diffusa in diversi settori.
I principali produttori di componenti di memoria, come Samsung Electronics tron SK Hynix e Micron, hanno riconosciuto la riduzione della produzione di memorie DRAM di fascia bassa, concentrandosi principalmente sulle memorie HBM. La carenza ha innescato un'impennata dei hanno registrato un aumento del 171,8% su base annua nel terzo trimestre. Anche i prezzi al dettaglio dei componenti DDR5 per PC sono raddoppiati in un breve periodo, a seguito dello spostamento dell'attenzione della supply chain verso i clienti dei data center AI.
Secondo Counterpoint Research, di Nvidia ha introdotto un nuovo livello di pressione. Ad esempio, la tecnologia LPDDR, comunemente utilizzata negli smartphone, viene ora prodotta in grandi volumi per soddisfare la domanda di server AI, posizionando Nvidia tra le aziende più importanti per capitalizzazione di mercato. La ricerca ha evidenziato che la riclassificazione della tecnologia LPDDR come componente fondamentale per i data center AI rappresenta un cambiamento radicale a cui la supply chain non può adattarsi facilmente.
La ricerca pubblicata da Counterpoint ha rivelato che questo cambiamento ha creato un dilemma nell'industria dei semiconduttori, con i produttori di chip che si trovano a dover decidere se concentrare la propria attenzione sulla produzione di una maggiore capacità produttiva di LPDDR, il che potrebbe aggravare la carenza in altri settori, o dare priorità alla produzione di HBM per soddisfare la domanda di acceleratori per l'intelligenza artificiale. Entrambe le decisioni rappresentano un rischio per i mercati globali delle memorie, come rivelato dalla ricerca.
La carenza di DRAM e LPDDR minaccia l'aumento dei costi delle infrastrutture cloud
Sulla base della ricerca, si prevede che un aumento della domanda di LPDDR raddoppierà i prezzi della memoria server entro la fine del 2026. Lo studio ha rilevato che i provider cloud, gli sviluppatori di intelligenza artificiale e gli hyperscaler ne subiranno l'impatto immediato, ma stanno già lottando con l'aumento dei costi legati agli aggiornamenti delle GPU e dell'infrastruttura energetica.
Micron, SK Hynix e Samsung hanno già investito in capacità produttive di DRAM avanzate e ad alta larghezza di banda. Il passaggio alla tecnologia LPDDR richiederà nuovi produttori, che, come ha sottolineato lo studio, richiedono un elevato impiego di capitale e cicli di sviluppo pluriennali. In particolare, il settore ha investito in modo insufficiente durante la crisi delle memorie successiva al 2023, lasciando il settore dei semiconduttori con una capacità limitata di gestire l'improvvisa domanda guidata dall'intelligenza artificiale.
Finora, le azioni Nvidia hanno raggiunto massimi più alti, con un incremento di circa il 35% da inizio anno, a seguito di una variazione nella spesa per l'intelligenza artificiale nel 2025. Il prezzo delle azioni è attualmente in rialzo del 23% nel 2025, scambiato a 181 dollari, con un range da inizio anno compreso tra 86,63 e 212,19 dollari. Il prezzo attuale segna un breve calo dopo che il prezzo dell'asset è raddoppiato dall'inizio dell'anno. La capitalizzazione di mercato dell'azienda è attualmente di 4,4 trilioni di dollari, il che la colloca tra le aziende più importanti a livello globale per capitalizzazione di mercato, superando Microsoft e Google.
ADATA prevede inoltre che i prezzi delle DRAM continueranno ad aumentare, estendendosi fino alla fine del 2026, con una persistente carenza nei segmenti consumer, enterprise e industriale. Nvidia dovrebbe pubblicare i suoi risultati finanziari oggi.

