Nvidia franchit une nouvelle étape majeure dans la course mondiale aux solutions d'IA haut de gamme. L'entreprise annonce que ses nouvelles puces Rubin pour centres de données sont quasiment prêtes à être commercialisées d'ici la fin de l'année, et que les clients pourront bientôt les tester.
les six puces Rubin de ses partenaires de fabrication. Ces puces ont déjà subi plusieurs tests critiques et leur livraison aux clients est prévue dans les délais. L'entreprise souligne l'importance de ces premiers progrès, car les entreprises spécialisées en IA et les centres de données s'efforcent d'obtenir du matériel plus rapide et plus performant.
Le PDG de Nvidia, Jensen Huang, a présenté ces informations lors de son discours d'ouverture au ConsumertronShow (CES) de Las Vegas. Le CES est l'un des plus grands salons technologiques au monde, où les fabricants dévoilent leurs nouveaux produits et innovations. « La course à l'IA est lancée », a déclaré M. Huang, alors que les entreprises technologiques rivalisent d'ingéniosité pour développer la prochaine génération d'IA.
Ses propos indiquent que Nvidia est convaincue de pouvoir conserver sa place de leader mondial dans la fabrication d'accélérateurs d'IA. Ces accélérateurs sont des puces spécialisées utilisées dans les centres de données pour entraîner et exécuter des modèles d'IA, qui alimentent des outils tels que les chatbots, les systèmes de reconnaissance d'images et les robots avancés.
Les puces Rubin offrent un gain de performance majeur
Rubin est le tout dernier accélérateur d'IA de Nvidia, succédant à Blackwell. Selon l'entreprise, Rubin est 3,5 fois plus rapide pour l'entraînement des modèles d'IA et 5 fois plus rapide pour l'exécution des logiciels d'IA que Blackwell. L'entraînement d'une IA consiste à apprendre aux modèles à partir de vastes quantités de données, tandis que son exécution consiste à utiliser ces modèles pour réaliser des tâches en temps réel.
Rubin intègre un nouveau processeur (CPU) à 88 cœurs. Les cœurs sont les composants de la puce qui effectuent les calculs et traitent les données. Avec des performances deux fois supérieures à celles de la puce précédente, ce nouveau CPU est mieux adapté aux charges de travail d'IA plus complexes. Lors de sa conférence GTC de printemps en Californie, Nvidia présente généralement tous les détails de ses produits.
Cette fois-ci, davantage d'informations ont été vendues que d'habitude. Cette stratégie vise à maintenir l'intérêt des consommateurs et des développeurs pour le matériel Nvidia, alors que l'adoption de l'IA continue de croître rapidement. Huang lui-même a également fait de nombreuses apparitions publiques pour promouvoir les produits, les partenariats et les investissements liés à l'IA. Nvidia n'était pas le seul acteur sous les projecteurs au CES. Lisa Su, PDG du fabricant de puces concurrent Advanced Micro Devices (AMD), a également prononcé un discours d'ouverture, mettant en lumière l'intensification de la concurrence sur le marché des semi-conducteurs.
Nvidia courtise les grands comptes face à une concurrence accrue
Certains investisseurs s'inquiètent de l'intensification de la concurrence pour Nvidia. D'autres entreprises technologiques développent également leurs propres puces d'IA, ce qui rend difficile de prévoir si les investissements dans l'IA pourront suivre le rythme.
Nvidia, cependant, se montre optimiste, estimant que le marché de l'IA à long terme pourrait valoir des billions de dollars, porté par la demande de secteurs tels que le cloud computing, les entreprises et les secteurs émergents.
Le matériel Rubin sera utilisé dans le DGX SuperPod de Nvidia, un supercalculateur puissant conçu pour les calculs d'IA à grande échelle. Parallèlement, les clients pourront acquérir les puces Rubin individuellement, ce qui leur permettra de concevoir des systèmes plus flexibles et modulaires.
L'amélioration des performances est particulièrement cruciale, compte tenu de l'évolution constante des systèmes d'IA. L'IA moderne s'appuie de plus en plus sur des réseaux de modèles spécialisés qui non seulement traitent d'énormes quantités de données, mais résolvent également des problèmes en plusieurs étapes. Ces tâches comprennent la planification, le raisonnement et la prise de décision.
Nvidia a également souligné que les systèmes basés sur la technologie Rubin seront moins coûteux à exploiter que les systèmes Blackwell. Grâce à sa capacité à fournir les mêmes performances avec moins de composants, Rubin permet aux centres de données de réaliser des économies d'énergie et de réduire leurs coûts d'exploitation.
Les principaux fournisseurs de services de cloud computing, tels que Microsoft, Google Cloud et Amazon Web Services (AWS), devraient être parmi les premiers à déployer le matériel Rubin au cours du second semestre. Ces entreprises représentent actuellement la majeure partie des dépenses consacrées aux systèmes d'IA basés sur la technologie Nvidia.
Photo de 