Martedì AMD ha dichiarato agli analisti che prevede una crescita del fatturato di oltre il 35% all'anno nei prossimi tre-cinque anni, trainata da quella che l'amministratore delegato Lisa Su ha descritto come una domanda "insaziabile" di chip AI.
Secondo un rapporto della CNBC, Lisa ha affermato che l'unità data center dell'azienda guiderà questa crescita con un incremento annuo dell'80%, spingendo l'azienda verso decine di miliardi di fatturato entro il 2027. Ha affermato che questa previsione si basa sulla solidità degli accordi esistenti e sui "clienti che attualmente lavorano a stretto contatto con noi"
Lisa ha anche dichiarato agli analisti che AMD prevede di conquistare una quota a due cifre del mercato dei data center AI nello stesso arco di tempo. Lo ha definito un obiettivo a cui stanno lavorando attivamente.
Il mercato dell'hardware per l'intelligenza artificiale è attualmente dominato da Nvidia, che detiene oltre il 90% del mercato e ha una valutazione di 4,6 trilioni di dollari. A titolo di confronto, AMD ha una capitalizzazione di mercato di circa 387 miliardi di dollari, e Lisa ha chiarito che la società sta puntando a qualcosa di più.
AMD firma accordi multimiliardari per incrementare le vendite di GPU
Mentre Nvidia continua a dominare il settore delle GPU, AMD rimane l'unico altro attore serio che sta costruendo questo tipo di hardware AI su larga scala.
Lisa ha fatto riferimento a un accordo pluriennale con OpenAI firmato a ottobre, in base al quale la startup si è impegnata ad acquistare chip Instinct AI di AMD per un valore di miliardi, a partire da un'implementazione da 1 gigawatt nel 2026. L'accordo potrebbe anche conferire a OpenAI una quota del 10% in AMD, a seconda di come si evolveranno le cose.
Lisa non si è fermata qui. Ha anche menzionato nuovi accordi a lungo termine con Oracle e Meta, a dimostrazione del fatto che AMD viene scelta attivamente dai grandi nomi.
Le azioni AMD sono quasi raddoppiate nel 2025, nonostante il titolo sia sceso del 3% nelle contrattazioni after-hours di martedì, dopo l'evento.
Il calo è avvenuto nonostante Lisa avesse annunciato una previsione di margine lordo compresa tra il 55% e il 58%, migliore di quanto previsto dalla maggior parte degli analisti.
L'azienda sta inoltre collaborando a stretto contatto con OpenAI per lanciare i suoi chip Instinct MI400X di nuova generazione, la cui distribuzione è prevista per il 2026.
Lisa ha affermato che questi chip saranno assemblati in sistemi rack-scale, con 72 GPU che fungeranno da unità singola, un design cruciale per carichi di lavoro AI di grandi dimensioni. Questo porrebbe AMD allo stesso livello di Nvidia, i cui sistemi rack hanno già superato tre cicli di produzione.
AMD aumenta le previsioni di mercato totali dell'intelligenza artificiale e raddoppia le CPU
Lisa ha presentato una nuova previsione: il mercato totale dei componenti e dei sistemi per data center basati sull'intelligenza artificiale potrebbe raggiungere i 1.000 miliardi di dollari all'anno entro il 2030, in aumento rispetto alla precedente stima di 500 miliardi di dollari entro il 2028.
Questa stima si basa su una crescita annua prevista del 40% e la nuova proiezione ora include anche le unità di elaborazione centrale (CPU) insieme alle GPU.
Lisa ha sottolineato che le CPU Epyc di AMD restano il prodotto più venduto dell'azienda, in grado di competere con i modelli Intel e basati su Arm in un mercato competitivo.
L'azienda continua anche a produrre chip per console di gioco, reti e altri dispositivi. Martedì l'attenzione si è concentrata sull'intelligenza artificiale, ma Lisa ha invitato gli azionisti a non ignorare tutto il resto.
"L'altro messaggio che vogliamo lasciarvi oggi è che ogni altro aspetto della nostra attività sta funzionando a pieno regime, e questo è davvero un bel momento", ha affermato Lisa.
Si è trattato del primo Financial Analyst Day di AMD dal 2022, tenutosi mentre l'azienda si trova nel mezzo di una corsa agli armamenti dell'intelligenza artificiale a livello globale, in cui le aziende tecnologiche stanno spendendo centinaia di miliardi per sviluppare infrastrutture di intelligenza artificiale.

