AWS (Amazon Web Services) di Amazon è pronta a sfidare il dominio di Nvidia nel settore dei chip per l'intelligenza artificiale, potenziando la sua strategia di chip personalizzati attraverso le CPU Graviton4 e gli acceleratori della serie Trainium. I chip personalizzati sono progettati per massimizzare i margini di profitto nei carichi di lavoro di intelligenza artificiale riducendo i costi di trasferimento dati negli ambienti cloud.
AWS ha annunciato un aggiornamento del suo chip Graviton4 che include 600 gigabit al secondo di larghezza di banda di rete, che l'azienda definisce la più alta offerta nel cloud pubblico. Ali Saidi, ingegnere di AWS, ha paragonato la velocità a quella di una macchina che legge 100 CD musicali al secondo. La CPU Graviton4 è uno dei tanti chip prodotti dagli Annapurna Labs di Amazon ad Austin, in Texas, e rappresenta una vittoria per la strategia personalizzata dell'azienda, che la mette a confronto con player tradizionali come Intel e AMD.
Con l'aggiornamento di Graviton4 all'orizzonte e i chip Trainium del Progetto Rainier, Amazon ha dimostrato la sua ambizione di controllare l'intero stack dell'infrastruttura di intelligenza artificiale, dal networking all'addestramento all'inferenza. Mentre altri importanti modelli di intelligenza artificiale come Claude 4 dimostravano di potersi addestrare con successo su hardware non NVIDIA, la questione non era se AWS potesse competere con il gigante dei chip, ma quanta quota di mercato potesse conquistare.
Hutt afferma che Amazon fornirà alternative più economiche alle GPU di Nvidia
Gadi Hutt, Senior Director for Customer and Product Engineering di AWS, ha affermato che Amazon desidera ridurre i costi di formazione dell'intelligenza artificiale e fornire alternative alle di Nvidia . Secondo AWS, il modello di intelligenza artificiale Claude Opus 4 di Anthropic è stato lanciato su GPU Trainium2 e il Progetto Rainier è basato su oltre 500.000 chip, un ordine che in genere sarebbe andato a Nvidia.
Hutt ha affermato che, sebbene il Blackwell di Nvidia fosse un chip più performante di Trainium2, il chip AWS offriva un rapporto costo-prestazioni migliore. Ha anche sottolineato che Trainium3 sarebbe arrivato quest'anno, raddoppiando le prestazioni di Trainium2 e consentendo un ulteriore risparmio energetico del 50%. Rami Sinno, Direttore dell'Ingegneria presso gli Annapurna Labs di AWS, ha affermato che la domanda di questi chip stava già superando l'offerta.
“La nostra offerta è molto, molto ampia, ma ogni singolo servizio che realizziamo ha un cliente associato.”
– Rami Sinno , Direttore dell'ingegneria presso gli Annapurna Labs di AWS
Il team di AWS ha sottolineato che, pur riconoscendo lacune specifiche, l'azienda ha preferito collaborare con startup più piccole e innovative come Anthropic, Scale AI e Fiddler piuttosto che affidarsi a grandi fornitori. Amazon supporta spesso queste aziende attraverso investimenti strategici, instaurando relazioni reciprocamente vantaggiose in cambio della fornitura di capitale o infrastrutture, come nel caso di Anthropic. AWS ha annunciato il Progetto Rainier, un supercomputer di intelligenza artificiale costruito per la startup Anthropic, alla conferenza Invent 2024 dello scorso dicembre e, secondo quanto riferito, ha investito 8 miliardi di dollari a sostegno di Anthropic.
I chip Graviton4 e Trainium3 di AWS promettono prestazioni ed efficienza migliorate
Il team di Amazon ha rivelato che i chip Graviton4 e Trainium3 aggiornati, previsti per la fine del 2025, promettevano un balzo in avanti di 4 volte in termini di prestazioni e un'efficienza energetica migliorata del 40%, comprimendo ulteriormente i margini di Nvidia. Ha aggiunto che questo non rappresentava solo un vantaggio per la crescita del fatturato di AWS, ma anche un attacco diretto al prezzo premium delle GPU di Nvidia.
Rahul Kulkarni, Direttore Product Management per Compute e AI di Amazon, ha affermato che la versione aggiornata di Graviton4 prometteva di offrire una potenza di calcolo e una memoria tre volte superiori rispetto al suo predecessore, il 75% in più di larghezza di banda di memoria e il 30% in più di prestazioni. Ha aggiunto che, nel complesso, ci si aspettava un rapporto prezzo/prestazioni migliore, il che significa che gli utenti avrebbero ottenuto prestazioni molto migliori per ogni dollaro speso.
Patrick Moorhead, CEO e Chief Analyst di Moor Insights & Strategy, ha affermato che tutte le aziende di intelligenza artificiale stanno investendo molto nello sviluppo di chip, aggiungendo di disporre di enormi budget per la ricerca e sviluppo, pur non divulgando le cifre esatte degli investimenti. Moorhead, che ha trascorso oltre un decennio come vicepresidente dent AMD , ha aggiunto che Nvidia rimane un attore dominante nel mercato dei chip di intelligenza artificiale. Tuttavia, la domanda è sufficiente a supportare diversi concorrenti, tra cui AWS.

