Nvidia a lancé mardi GTC 2025 avec une série d'annonces. Les principaux points forts incluent un nouveau moteur de physique appelé Newton, un nouveau modèle de fondation AI pour les robots humanoïdes nommé Groot N1, et deux «superordinateurs personnels d'IA» sous la gamme DGX.
Jensen Huang, fondatrice et PDG de Nvidia, a dirigé le discours d'ouverture à San Jose, en Californie, des collaborations en lumière avec Disney Research et Google Deepmind qui sont destinées à remodeler la façon dont les robots se déplacent et apprennent.
Disney, dont les droïdes BDX inspirés de Star Wars ont généré de la curiosité pendant des années, sera parmi les premiers à utiliser Newton. Lors de l'ouverture de mardi, l'un de ces droïdes se dandinait sur scène aux côtés de Huang.

Selon Disney, ces robots pourraient bientôt apparaître dans les parcs à thème dans le monde. NVIDIA note que Newton est hautement personnalisable et s'intègre aux outils de robotique existants de Google DeepMind. Une première version open source de Newton sera publiée plus tard en 2025.
Nvidia a encadré Newton en tant que moteur que les développeurs peuvent utiliser pour simuler comment les robots interagissent avec des articles comme la nourriture, le sable, le tissu et d'autres objets déformables. Il a également été souligné que Newton intègre des fonctionnalités de Mujoco de DeepMind, un moteur physique qui prend en charge les mouvements de robots à plusieurs joint.

En combinant ces composants, Nvidia prévoit de donner aux développeurs de la robotique un moyen plus efficace de programmer des tâches qui pourraient être difficiles à reproduire dans des environnements de test du monde réel. La société a également souligné comment ce partenariat avec Google Deepmind renforce un accent plus large sur la robotique axée sur l'IA.
En plus de Newton, Nvidia a introduit Groot N1 . Présenté comme un modèle de fondation AI pour les robots humanoïdes, Groot N1 est conçu pour soutenir les robots dans «percevoir et raisonnement sur leur environnement». La société affirme que ce modèle de fondation devrait aider les robots à se déplacer de manière transparente à travers des espaces qui pourraient impliquer des changements imprévisibles dans le terrain, l'éclairage ou l'activité humaine. Bien que des détails supplémentaires sur les spécifications techniques de Groot N1 restent rares, NVIDIA suggère qu'elle jouera un rôle dans la façon dont les robots dans plusieurs industries fonctionnent dans un avenir proche.
Huang révèle les supercalculateurs de DGX Personal AI
Dans le même discours, Huang a discuté de nouvelles puces d'IA et des superordinateurs personnels, soulignant à quel point l'entreprise a grandi depuis le lancement de Chatgpt d'Openai à la fin de 2022. Au-dessus de cette période, Nvidia a vu une forte augmentation de la demande pour ses GPU, avec des fournisseurs de cloud majeurs tels que Microsoft, Google et Amazon étant parmi ses plus grands clients.
L'un des produits les plus discutés révélés au GTC 2025 est le DGX Spark, qui fait partie de la nouvelle famille «Personal IA Supercalperse». Propulsé par la plate-forme Grace Blackwell Chip, DGX Spark offre jusqu'à 1 000 billions d'opérations par seconde de l'informatique AI. Il est équipé de la GB10 Grace Blackwell Superchip, ce qui en fait une machine robuste pour les tâches AI exécutées au bord.
Le deuxième appareil, Station DGX, dispose d'une superchip GB300 Grace Blackwell Ultra Desktop et 784 Go de mémoire. Alors que DGX Spark est déjà disponible, la station DGX devrait sortir plus tard cette année. Des entreprises telles que ASUS, BoxX, Dell, HP et Lenovo serviront de partenaires manufacturiers.
Huang a caractérisé ces produits comme révolutionnaires, déclarant: «C'est l'ordinateur de l'âge de l'IA. Les analystes participant à la conférence ont noté que ces soi-disant superordinateurs personnels pourraient aider à la fois plus rapidement les grandes entreprises et les petites tenues de l'expérimentation de l'IA à la production.
Nvidia annonce Blackwell Ultra et Vera Rubin
En parallèle, NVIDIA a annoncé deux nouvelles familles de puces visant à construire et à déployer des modèles AI avancés: Blackwell Ultra, prévu pour la seconde moitié de cette année, et Vera Rubin, qui devrait être expédié en 2026. Les annonces sont importantes pour les sociétés de nuage qui s'appuient sur le matériel Nvidia pour exécuter des charges de travail de formation en AI massives. Blackwell Ultra est destiné à générer plus de jetons par seconde, permettant une production de contenu plus rapide pendant l'inférence IA ou d'autres processus basés sur le langage.
Avec cette capacité, NVIDIA suggère que les fournisseurs de cloud peuvent introduire des services d'IA de niveau plus élevé en utilisant les nouvelles puces, ce qui pourrait entraîner des revenus jusqu'à 50 fois plus par rapport à ce qui était possible avec les puces de génération de trémies de l'entreprise introduites en 2023.
La gamme Blackwell Ultra comprendra des versions qui s'associent à un CPU à bras, étiqueté GB300 et aux versions qui se concentrent uniquement sur le GPU (B300). Les configurations supplémentaires auront huit GPU dans une lame de serveur ou 72 GPU dans un seul rack. Nvidia dit que les quatre meilleurs fournisseurs de cloud ont déjà déployé trois fois le nombre de puces Blackwell par rapport à la génération précédente.

Nommé d'aprèstronOmer Vera Rubin, ce système devrait commencer à expédier dans la seconde moitié de 2026. Il se concentre sur deux parties principales: un processeur, appelé Vera, et une conception GPU, appelée Rubin. Vera est la première conception CPU personnalisée de Nvidia, construite sur une nouvelle architecture de base étiquetée Olympus. La société affirme que ce processeur personnalisé sera deux fois plus rapide que le processeur Grace Blackwell publié dans les itérations antérieures.
Rubin, le composant GPU, sera capable d'effectuer 50 pétaflops d'inférence, dépassant les 20 pétaflops de Nvidia Blackwell Chips de Nvidia. De plus, Rubin peut prendre en charge jusqu'à 288 Go de mémoire rapide, ce qui est une métrique importante pour les développeurs d'IA traitant des modèles à grande échelle. Un autre changement dans la convention de dénomination émerge ici: tandis que les GPU Blackwell présentent deux matrices distinctes assemblées en une seule puce, Rubin reconnaîtra officiellement chaque matrice en tant que GPU individuel.
La société affirme qu'elle prévoit de publier une version «Rubin Next» au second semestre de 2027 qui comprendra quatre matrices dans une puce, offrant ainsi le double de la vitesse de la version initiale de Rubin. Ce produit sera logé dans une configuration de rack appelée Vera Rubin NVL144, en s'appuyant sur la norme NVL72 des racks précédents.
Ajoutant à la feuille de route , Huang a présenté une diapositive qui a révélé le nom de la famille des puces après Rubin: Feynman, du nom du physicien Richard Feynman. Nvidia prévoit de publier des puces Feynman en 2028, complétant un plan pluriannuel qui comprend des changements architecturaux supplémentaires et majeurs dans la conception du matériel d'IA.
Cryptopolitan Academy: fatiguée des balançoires du marché? Découvrez comment DeFi peut vous aider à créer un revenu passif stable. Inscrivez-vous maintenant