AMD presenta i chip AI per PC di nuova generazione al CES 2026 di Las Vegas

- AMD ha svelato i piani per il suo rack Helios AI di prossima generazione al CES 2026 di Las Vegas.
- L'amministratore delegato dell'azienda, Lisa Su, ha offerto un primo sguardo al sistema Helios durante il suo discorso di apertura.
- AMD ha inoltre presentato i suoi ultimi chip Ryzen AI Max+ per workstation leggere, mini-PC e laptop.
AMD, multinazionale tecnologica statunitense, ha svelato i piani per il lancio del suo rack Helios AI di nuova generazione al CES 2026 di Las Vegas. L'amministratore delegato dell'azienda, Lisa Su, ha presentato in anteprima il sistema Helios durante il suo discorso di apertura, offrendo maggiori dettagli sul suo design e sulla sua costruzione.
Il CEO Su ha presentato sul palco una grande unità rack Helios, decantandone le prestazioni superiori, paragonandola direttamente al Vera Rubin NVL72 di Nvidia, anch'esso presentato al CES 2026. Nvidia ha definito lo standard per i sistemi rack-scale, che ha presentato come ultima novità.
Secondo Su, Helios competerà direttamente con i sistemi NVL di Nvidia. AMD punta a integrare 72 dei suoi chip MI455X con le 72 GPU Rubin del suo più recente sistema NVL72.
Le GPU della serie MI500 di AMD forniranno un'elaborazione AI 1.000 volte superiore
AMD ha inoltre annunciato l'intenzione di ampliare i propri sforzi fornendo maggiori informazioni sulle sue prossime GPU della serie MI500, che, a suo dire, offriranno prestazioni di intelligenza artificiale fino a 1.000 volte superiori a quelle delle GPU Mi300X. Su ha sottolineato che questo aumento delle prestazioni sarà necessario nei prossimi anni, aggiungendo che entro i prossimi cinque anni, circa cinque miliardi di persone utilizzeranno attivamente l'intelligenza artificiale quotidianamente.
AMD ha anche presentato la sua nuova linea di chip per PC Ryzen AI serie 400, mentre Su ha presentato i processori MI-455. Ha sottolineato che i processori MI455 sono parte integrante dei data center che alimentano i programmi di intelligenza artificiale.
AMD ha anche presentato i chip della serie Ryzen AI Pro 400, che sfideranno i nuovi processori Core Ultra 3 di Intel. I processori Core Ultra 3 sono basati sulla nuova tecnologia di processo 18A di Intel.
dell'azienda robot umanoide, GENE.01. Il robot è alimentato da GPU e CPU di AMD ed è progettato per operare in ambienti industriali.
Su ha osservato che le aziende tecnologiche dovranno aumentare la capacità di calcolo globale di almeno 100 volte nei prossimi anni. Si prevede che questa crescita andrà a vantaggio sia di Nvidia che di AMD, che finora hanno aumentato la loro capitalizzazione di mercato rispettivamente a 4,5 trilioni di dollari e 359 miliardi di dollari.
AMD svela i chip Ryzen AI Max+
AMD ha anche presentato i suoi ultimi chip Ryzen AI Max+ per workstation leggere, mini-PC e laptop. Ha anche presentato la sua piattaforma di sviluppo Ryzen Halo. Il mini-PC consente agli sviluppatori di creare modelli di intelligenza artificiale localmente, anziché affidarsi a soluzioni basate su cloud.
La piattaforma per sviluppatori Halo compete con il mini-PC DGX Spark di Nvidia, il cui prezzo è di quasi 4.000 dollari. Tuttavia, AMD non ha ancora rivelato i dettagli sul prezzo di Halo.
Nel frattempo, Nvidia ha anche presentato la piattaforma Rubin, che combina le GPU Rubin e la CPU Vera per creare un singolo processore Vera Rubin. Nvidia descrive la piattaforma Rubin come un'intelligenza artificiale agentiva ideale con modelli di ragionamento avanzati.
"Rubin arriva esattamente nel momento giusto, poiché la domanda di elaborazione di intelligenza artificiale, sia per la formazione che per l'inferenza, sta salendo alle stelle."
–Jensen Huang, CEO di Nvidia
La piattaforma Rubin, oltre alle GPU Rubin e alle CPU Vera, include la DPU Nvidia BlueField-4, lo switch Nvidia NVLink 6, lo switch Ethernet Nvidia Spectrum-6 e la SuperNIC Nvidia ConnectX-9.
Combinando diversi NVL72 si ottiene il supercomputer AI DGXX SuperPOD di Nvidia. I grandi produttori di sistemi iperscalabili, tra cui Microsoft, Amazon, Meta e Google, stanno investendo miliardi di dollari per acquisire questi sistemi di grandi dimensioni.
Nvidia ha inoltre osservato che la piattaforma Rubin è più efficiente rispetto ai suoi predecessori, il che probabilmente comporterà una riduzione di quattro volte del numero di GPU necessarie per addestrare gli stessi sistemi MoE. Ridurre il numero di GPU significa che quelle extra possono essere assegnate a compiti diversi. Rubin ridurrà anche i costi dei token di inferenza fino a 10 volte.
Nel frattempo, Nvidia continua a promuovere il suo storage basato sull'intelligenza artificiale, l'Nvidia Inference Context Memory Storage. L'azienda tecnologica afferma che questo storage basato sull'intelligenza artificiale è progettato per archiviare e condividere i dati generati da un modello di ragionamento basato sull'intelligenza artificiale, composto da un trilione di parametri e in più fasi.
Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














