Amazon développe ses propres puces d'IA pour réduire ses coûts, ce qui a également contribué à accroître la rentabilité d'Amazon Web Services (AWS). Cependant, le géant du e-commerce peine à concevoir des puces d'IA capables de rivaliser avec les puces standard de Nvidia.
Les problèmes de migration de projets, les incompatibilités et la faible utilisation figurent parmi les freins à l'adoption des puces d'IA d'Amazon. Cette situation met également en péril les revenus importants qu'Amazon tire de son activité cloud. Les difficultés rencontrées par Amazon ont été dent grâce à dent et des sources proches du dossier, comme a rapporté Business Insider.
L'adoption des puces d'IA internes d'Amazon est freinée
Trainium et Inferentia sont les puces haut de gamme conçues par Amazon et lancées fin 2018. Selon la publication, le taux d'adoption de Trainium parmi les clients d'AWS n'était que de 0,5 % l'an dernier, contre seulement 0,5 % pour les processeurs graphiques Nvidia.
À lire également : Les bénéfices d’Amazon dépassent les attentes de Wall Street grâce aux performances exceptionnelles de l’IA générative d’AWS
Selon le rapport, Amazon a réalisé une évaluation en avril 2024 afin de mesurer le taux d'utilisation des différentes puces d'IA via ses services AWS. Le taux d'adoption d'Inferentia était légèrement supérieur, à 2,7 %. Inferentia est une puce spécialement conçue pour l'inférence, une tâche d'IA qui désigne généralement le processus de calcul nécessaire à l'utilisation des modèles d'IA par les consommateurs finaux. Le rapport mentionne un document interne indiquant que :
« Les premières tentatives des clients ont mis en évidence des points de friction et freiné l'adoption. »
L'affirmation ci-dessus fait référence aux difficultés rencontrées par les grands clients du cloud lors de la transition vers les puces personnalisées d'Amazon. La plateforme CUDA de Nvidia est jugée plus attrayante par les clients, et le rapport ladentcomme une raison majeure.
Le développement d'une puce d'IA personnalisée d'Amazon fait l'objet d'un examen interne
AWS, le plus grand fournisseur de services cloud au monde, développe actuellement ses propres puces informatiques pour faciliter ses opérations. Amazon met parfois en avant ses efforts dans le domaine des puces d'IA. Cependant, la réalité présentée dans les documents est bien différente de la vision officielle de l'entreprise.

Les documents internes indiquent que l'entreprise peine à adopter ses solutions, mais le PDG d'Amazon a un avis différent. Lors de la conférence téléphonique sur les résultats du premier trimestre, Andy Jassy, PDG d'Amazon, a déclaré que la demande pour les puces AWS était forte.
« Nous proposons la plus vaste gamme d'instances de calcul NVIDIA du marché, mais la demande pour nos solutions personnalisées en silicium, en entraînement et en inférence est très forte, compte tenu de leur rapport prix-performances avantageux par rapport aux alternatives disponibles. »
Andy Jassy
lettre aux investisseurs Jassy a également mentionné les premiers utilisateurs des puces AWS , déclarant : « Nous comptons déjà plusieurs clients utilisant nos puces d’IA, notamment Anthropic, Airbnb bnb Hugging Face, Qualtrics, Ricoh et Snap. » Cependant, le cas d’Anthropic est tout à fait particulier, car Amazon est le principal investisseur de la startup. Le géant du cloud a investi 4 milliards de dollars dans Anthropic, et cet accord d’investissement l’oblige à utiliser des puces conçues par AWS.
Un composant majeur d'AWS exploite les GPU Nvidia
Amazon Web Services propose une gamme variée de processeurs, des puces Grass Hopper de Nvidia à celles d'AMD et d'Intel. Sa rentabilité repose principalement sur la conception de ses propres puces pour centres de données, ce qui lui permet de réaliser des économies en évitant l'achat de GPU auprès de Nvidia.
À lire également : Nvidia enregistre une croissance remarquable grâce à la demande croissante en IA et en GPU
Amazon a lancé sa première puce d'IA, Inferntia, en 2018, mais Nvidia reste leader en proposant des solutions largement adoptées par différents secteurs. AWS, Microsoft et Google comptent parmi les plus gros clients de Nvidia. Ces géants louent tous des GPU via leurs services cloud.
En mars, Adam Selipsku, PDG d'AWS, a participé à la conférence Nvidia GTC 2023. Les deux entreprises ont fait une annonce conjointe axée sur leur collaboration stratégique pour faire progresser l'IA générative.
« La collaboration étroite entre nos deux organisations remonte à plus de 13 ans, lorsque nous avons lancé ensemble la première instance cloud GPU au monde sur AWS, et aujourd'hui, nous proposons la gamme la plus étendue de solutions GPU NVIDIA à nos clients. »
Selipsku
La plateforme CUDA de Nvidia est généralement privilégiée par les développeurs. Nvidia y a consacré de nombreuses années d'efforts, et l'industrie l'a adoptée, ce qui leur simplifie grandement la tâche. Amazon, en revanche, doit encore résoudre ce problème par tâtonnements.
Reportage Cryptopolitan par Aamir Sheikh

