IA , AMD (Advanced Micro Devices) entre officiellement dans la course pour concurrencer la domination de Nvidia sur le marché des accélérateurs IA. Cette initiative devrait déclencher une concurrence féroce entre les deux géants de la technologie sur un marché qu'AMD prévoit de voir atteindre 45 milliards de dollars en 2023 et exploser à 400 milliards de dollars d'ici 2027. Visant à vendre pour plus de 2 milliards de dollars de puces IA en 2024, AMD se prépare à une offensive majeure dans le domaine de l'IA.
Un bond en avant en matière de performances avec le MI300X
AMD lance deux accélérateurs d'IA, le MI300X se positionnant comme le principal concurrent du H100 de Nvidia. L'un des atouts majeurs du MI300X réside dans son impressionnante mémoire à large bande passante de 192 Go, soit plus du double de la capacité du H100 de Nvidia. Cet avantage considérable en matière de mémoire pourrait s'avérer déterminant, notamment pour les applications impliquant des modèles de langage complexes (LLM) qui requièrent d'importantes ressources mémoire.
Comparativement au H100 de Nvidia, AMD affiche des performances impressionnantes pour le MI300X. Ce dernier offrirait des performances 1,6 fois supérieures lors de l'inférence sur des modèles linéaires logiques spécifiques, comme le modèle BLOOM 176B. Autre atout majeur : sa capacité à gérer l'inférence sur un modèle à 70 milliards de paramètres, une fonctionnalité absente de la gamme actuelle de produits Nvidia.
Présentation du MI300A avec cœurs de processeur Zen 4
Alors que la MI300X représente le haut de gamme, AMD propose également la MI300A, qui offre une alternative intéressante. La MI300A dispose certes de moins de cœurs graphiques et de moins de mémoire que la MI300X, mais elle intègre les tout derniers cœurs CPU Zen 4 d'AMD. Cette configuration positionne la MI300A pour le marché du calcul haute performance, avec un accenttronsur l'efficacité énergétique. AMD affirme que la MI300A offre des performances par watt 1,9 fois supérieures à celles de la MI250X de la génération précédente.
L'un des principaux atouts d'Nvidia sur le marché des GPU pour centres de données réside dans son écosystème logiciel. La plateforme CUDA d'Nvidia, développée il y a plus de 16 ans, est devenue la norme du secteur pour l'exploitation des GPU dans les calculs. Le défi pour ses concurrents, comme AMD, est que CUDA est exclusivement compatible avec les GPU Nvidia, ce qui complique la migration des clients vers d'autres fournisseurs de puces d'IA.
En réponse, AMD propose ROCm, une plateforme de calcul GPU ouverte, désormais dans sa sixième version. ROCm prend en charge des frameworks d'IA populaires tels que TensorFlow et PyTorch, et AMD a étendu son écosystème grâce à des partenariats stratégiques et des acquisitions. Notamment, AMD a acquis Nod.ai, une société de logiciels d'IA open source, afin de renforcer ses capacités logicielles et de réduire l'écart avec Nvidia.
Partenariats clés et adoption par les clients
Bien que Nvidia conserve son avantage logiciel, AMD a déjà séduit des clients de renom pour ses nouvelles puces d'IA. Microsoft et Meta Platforms (anciennement Facebook) se sont engagés à adopter la technologie d'AMD. Microsoft s'apprête à lancer une nouvelle gamme de serveurs virtuels sur Azure, basés sur le MI300X, tandis que Meta Platforms prévoit d'utiliser ce même processeur pour diverses charges de travail d'inférence IA.
Par ailleurs, Oracle proposera des instances bare metal équipées de puces MI300X, et de grands fabricants de matériel comme Dell, Hewlett-Packard Enterprise, Lenovo et Supermicro prévoient des systèmes construits autour des nouveaux produits d'IA d'AMD.
AMD est bien positionnée pour répondre à la forte demande d'accélérateurs d'IA à court terme. Cependant, l'évolution à long terme de ce marché reste incertaine. L'IA demeure une technologie fondamentale, mais à mesure que la concurrence s'intensifie et que des alternatives plus viables à Nvidia apparaissent, des pressions sur les prix pourraient se faire sentir.

