Amazon Web Services (AWS) entend bien concurrencer la domination de Nvidia sur le marché des puces d'IA en misant sur sa stratégie de puces personnalisées, notamment les processeurs Graviton4 et les accélérateurs de la série Trainium. Ces puces sont conçues pour optimiser les marges bénéficiaires des charges de travail d'IA en réduisant considérablement les coûts de transfert de données dans les environnements cloud.
AWS a annoncé une mise à jour de sa puce Graviton4 offrant une bande passante réseau de 600 gigabits par seconde, ce qui, selon l'entreprise, représente la meilleure performance du cloud public. Ali Saidi, ingénieur chez AWS, a comparé cette vitesse à celle d'une machine lisant 100 CD audio par seconde. Le processeur Graviton4 est l'un des nombreux produits issus des laboratoires Annapurna d'Amazon à Austin, au Texas. Il constitue un atout majeur pour la stratégie de développement sur mesure de l'entreprise, la positionnant ainsi en concurrence directe avec les acteurs traditionnels tels qu'Intel et AMD.
Avec la mise à niveau imminente de Graviton4 et les puces Trainium du projet Rainier, Amazon a démontré son ambition de contrôler l'ensemble de l'infrastructure d'IA, du réseau à l'entraînement en passant par l'inférence. Alors que des modèles d'IA majeurs comme Claude 4 prouvaient leur capacité à s'entraîner avec succès sur du matériel non-NVIDIA, la question n'était plus de savoir si AWS pouvait rivaliser avec le géant des semi-conducteurs, mais plutôt quelle part de marché elle pouvait conquérir.
Hutt affirme qu'Amazon proposera des alternatives moins chères aux GPU de Nvidia
Gadi Hutt, directeur principal de l'ingénierie client et produit chez AWS, a déclaré qu'Amazon souhaitait réduire les coûts d'entraînement de l'IA et proposer des alternatives aux de Nvidia . Selon AWS, le modèle d'IA Claude Opus 4 d'Anthropic a été lancé sur des GPU Trainium2, et le projet Rainier utilise plus de 500 000 puces — une commande qui aurait généralement été attribuée à Nvidia.
Hutt a déclaré que si la puce Blackwell de Nvidia était plus performante que Trainium2, la puce AWS offrait un meilleur rapport qualité-prix. Il a également souligné que Trainium3, dont la sortie était prévue cette année, doublerait les performances de Trainium2 et permettrait une économie d'énergie supplémentaire de 50 %. Rami Sinno, directeur de l'ingénierie chez Annapurna Labs (AWS), a indiqué que la demande pour ces puces dépassait déjà l'offre.
« Notre offre est très, très importante, mais chaque service que nous développons est associé à un client. »
– Rami Sinno , directeur de l'ingénierie chez Annapurna Labs d'AWS
L'équipe AWS a souligné que, malgré la reconnaissance de certaines lacunes, l'entreprise privilégiait la collaboration avec des startups innovantes de plus petite taille telles qu'Anthropic, Scale AI et Fiddler plutôt que de s'appuyer sur de grands fournisseurs. Amazon soutient souvent ces entreprises par le biais d'investissements stratégiques, nouant des relations mutuellement avantageuses en échange de la mise à disposition de capitaux ou d'infrastructures, comme dans le cas d'Anthropic. AWS a annoncé le projet Rainier – un supercalculateur d'IA conçu pour la startup Anthropic – lors de la conférence Invent 2024 en décembre dernier et aurait investi 8 milliards de dollars dans Anthropic.
Les puces Graviton4 et Trainium3 d'AWS promettent des performances et une efficacité améliorées
L'équipe d'Amazon a révélé que les puces Graviton4 et Trainium3 améliorées, prévues pour fin 2025, promettaient des performances quatre fois supérieures et une efficacité énergétique accrue de 40 %, réduisant ainsi davantage les marges de Nvidia. Elle a ajouté que cela représentait non seulement un atout pour la croissance du chiffre d'affaires d'AWS, mais aussi une attaque directe contre le prix élevé des GPU Nvidia.
Rahul Kulkarni, directeur de la gestion des produits de calcul et d'IA chez Amazon, a déclaré que la nouvelle version du Graviton4 promettait une puissance de calcul et une mémoire trois fois supérieures à celles de son prédécesseur, une bande passante mémoire accrue de 75 % et des performances améliorées de 30 %. Il a ajouté que, globalement, elle devrait offrir un meilleur rapport qualité-prix, permettant ainsi aux utilisateurs de bénéficier de performances nettement supérieures pour chaque dollar dépensé.
Patrick Moorhead, PDG et analyste principal de Moor Insights & Strategy, a déclaré que toutes les entreprises spécialisées en IA investissaient massivement dans le développement de puces, précisant qu'elles disposaient de budgets de R&D colossaux, sans toutefois divulguer les montants exacts de leurs investissements. M. Moorhead, qui a passé plus de dix ans comme vice-président dent AMD , a ajouté que Nvidia restait un acteur dominant sur le marché des puces d'IA. Cependant, la demande était suffisamment importante pour permettre la présence de plusieurs concurrents, dont AWS.

