DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

AMD dévoile ses puces PC IA de nouvelle génération au CES 2026 à Las Vegas

ParCollins J. OkothCollins J. Okoth
3 minutes de lecture
AMD dévoile ses puces PC IA de nouvelle génération au CES 2026 à Las Vegas
  • AMD a dévoilé ses plans pour son rack d'IA Helios de nouvelle génération lors du CES 2026 à Las Vegas.
  • La PDG de l'entreprise, Lisa Su, a présenté en avant-première le système Helios lors de son discours d'ouverture. 
  • AMD a également dévoilé ses dernières puces Ryzen AI Max+ destinées aux stations de travail légères, aux mini-PC et aux ordinateurs portables.

AMD, multinationale américaine spécialisée dans les technologies, a dévoilé son projet de présenter sa plateforme d'intelligence artificielle Helios de nouvelle génération au CES 2026 à Las Vegas. Lors de son discours d'ouverture, la PDG de l'entreprise, Lisa Su, a dévoilé en avant-première le système Helios, en fournissant davantage de détails sur sa conception et sa fabrication.

Le PDG Su a présenté sur scène une imposante unité rack Helios, vantant ses performances supérieures et la présentant comme une attaque directe contre la Vera Rubin NVL72 de Nvidia, également dévoilée lors du CES 2026. Nvidia a établi la norme en matière de systèmes à l'échelle du rack, qu'elle a lancés comme sa toute dernière offre.

Selon Su, Helios concurrencera directement les systèmes NVL de Nvidia. AMD vise à égaler 72 de ses puces MI455X avec les 72 GPU Rubin de sa gamme NVL72. 

Les GPU de la série MI500 d'AMD offriront une puissance de calcul IA 1 000 fois supérieure

AMD a également annoncé son intention d'intensifier ses efforts en fournissant davantage d'informations sur sa future série de GPU MI500, qui, selon la société, offrira des performances en IA jusqu'à 1 000 fois supérieures à celles des GPU MI300X. Su a souligné que cette augmentation de performance sera indispensable dans les années à venir, ajoutant que d'ici cinq ans, quelque cinq milliards de personnes utiliseront activement l'IA au quotidien. 

AMD a également dévoilé sa nouvelle gamme de processeurs PC Ryzen AI série 400, tandis que Su a présenté les processeurs MI-455. Elle a souligné que ces derniers constituent un élément essentiel des centres de données qui alimentent les programmes d'IA.

AMD a également présenté ses puces Ryzen AI Pro série 400, destinées à concurrencer les nouveaux processeurs Intel Core Ultra 3. Ces derniers sont gravés selon la nouvelle technologie Intel 18A.

Su a ensuite invité Daniele Pucci, PDG de Generative Bionics, à monter sur scène pour dévoiler en avant-première GENE.01, le robot humanoïde. Ce robot, équipé de processeurs et de GPU AMD, est conçu pour fonctionner en milieu industriel. 

Su a constaté que les entreprises technologiques devront multiplier par au moins 100 la capacité de calcul mondiale dans les prochaines années. Cette croissance devrait profiter à Nvidia et à AMD, dont la capitalisation boursière atteint respectivement 4 500 milliards et 359 milliards de dollars.

AMD dévoile des puces Ryzen AI Max+

AMD a également dévoilé ses nouvelles puces Ryzen AI Max+ destinées aux stations de travail légères, aux mini-PC et aux ordinateurs portables. L'entreprise a aussi présenté sa plateforme de développement Ryzen Halo. Ce mini-PC permet aux développeurs de créer des modèles d'IA localement, sans avoir recours à des solutions cloud. 

La plateforme de développement Halo est en concurrence avec le mini-PC DGX Spark de Nvidia, vendu à près de 4 000 $. Cependant, AMD n'a pas encore communiqué le prix de Halo.

Parallèlement, Nvidia a également dévoilé la plateforme Rubin, qui combine les GPU Rubin et le CPU Vera pour créer un processeur Vera Rubin unique. Nvidia décrit la plateforme Rubin comme une IA agentive idéale dotée de modèles de raisonnement avancés. 

« Rubin arrive au moment idéal, car la demande en calculs d'IA, tant pour l'entraînement que pour l'inférence, explose. »

Jensen Huang, PDG de Nvidia

La plateforme Rubin, en plus des GPU Rubin et des CPU Vera, comprend le DPU Nvidia BlueField-4, le commutateur Nvidia NVLink 6, le commutateur Ethernet Nvidia Spectrum-6 et la SuperNIC Nvidia ConnectX-9.

L'assemblage de plusieurs NVL72 donne naissance au supercalculateur d'intelligence artificielle DGXX SuperPOD de Nvidia. Les géants du cloud, tels que Microsoft, Amazon, Meta et Google, investissent des milliards de dollars pour acquérir ces systèmes de grande puissance. 

Nvidia a également souligné que la plateforme Rubin est plus performante que ses prédécesseurs, ce qui devrait permettre de diviser par quatre le nombre de GPU nécessaires à l'entraînement des mêmes systèmes MoE. Cette réduction du nombre de GPU permettra de les affecter à d'autres tâches. Rubin réduira également le coût des jetons d'inférence jusqu'à dix fois.

Parallèlement, Nvidia continue de promouvoir sa solution de stockage basée sur l'IA, le Nvidia Inference Context Memory Storage. L'entreprise technologique affirme que ce stockage piloté par l'IA est conçu pour stocker et partager des données générées par un modèle de raisonnement IA multi-étapes comportant mille milliards de paramètres.

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES