Chargement...

Google Cloud annonce l'intégration de la plateforme Blackwell de nouvelle génération de Nvidia en 2025

Dans cet article :

  • Google Cloud intégrera Nvidia Blackwell en 2025.
  • La nouvelle instance A3 Mega améliore l'efficacité de la formation LLM.
  • Google est en tête avec les avancées en matière d'IA, de stockage et d'informatique.

La plate-forme Nvidia Blackwell était destinée à intégrer son avenir avancé dans la plate-forme du système informatique de Google, ce que Google a promis. Initialement prévue pour début 2025, la plateforme est livrée avec le Nvidia HGX B200 ultrarapide, développé pour les domaines de l'IA et du calcul haute performance (HPC), ainsi que le NBL72 GB200 créé pour la formation de grands modèles de langage (LLM). Parmi toutes les améliorations que Google va introduire, la première est le refroidissement liquide pour augmenter les performances et l'efficacité. C'est la première fois que le refroidissement liquide sera implémenté dans l'infrastructure cloud de Google.

Expansion des accélérateurs d’IA et des services informatiques

Google a introduit de nouveaux types d'instances et divers accélérateurs pour répondre aux besoins de chaque client. L'une des innovations introduites par Google Cloud est la puce de processeur d'IA sur mesure, appelée Arm-based Axion, en plus d'une large gamme d'accélérateurs d'IA et même de Nvidia qui créeront à terme une gamme en termes d'offres de Google. Outre la nouvelle instance A3 Mega, qui devrait être développée conjointement avec Nvidia, d'autres nouvelles annonces ont eu lieu.  

Cette solution particulière est conçue avec les GPU H100 qui sont utilisés dans les réseaux standard de l'industrie et un nouveau système de mise en réseau qui peut doubler la bande passante pour chaque GPU. Il s'agit d'une excellente fonctionnalité pour les développeurs car elle dispose désormais de la puissance nécessaire pour former des LLM approfondis à un taux d'efficacité élevé.  

Google a également lancé son instance dent A3, conçue pour résister aux violations de données et maintenir la confi dent et l'intégrité des données sensibles et des charges de travail d'IA en chiffrant les données de bout en bout lors de leur transfert et de leur déplacement entre le processeur Intel et le GPU Nvidia H100 sans aucune modification de code.

Avancées des accélérateurs d'IA de Google

Google humanise : Google n'a toujours pas peur de repousser les limites techniques avec ses supercalculateurs d'IA sur site, les processeurs Cloud TPU v5 sont désormais pasteurisés pour une utilisation à long terme par tout le monde. Les processeurs, que Google prétend être l'accélérateur d'IA le plus avancé jamais eu, seront 2 fois plus rapides en FLOPS que l'augmentation étonnante de la vitesse de la bande passante mémoire 3 fois observée précédemment.  

Google a proposé des options de stockage optimisées pour l'IA comme Hyper disk (en avant-première). Ce service de stockage en bloc de nouvelle génération offre un moyen de réduire drastiquement le temps de chargement des modèles (jusqu'à 3,7 fois selon Google), déclare Google Artisan. Si l’utilisation généralisée de l’IA et du machine learning reste son principal atout, Google Cloud s’aventure également de plus en plus dans les catégories d’infrastructures générales.  

Le fournisseur a déployé de nouveaux thèmes faisant référence aux processeurs Intel Xeon de quatrième et cinquième génération. Il existe de nouvelles instances Z4, Z5, N4 et C4 à usage général, qui seront équipées des Xeons Emerald Rapids de cinquième génération. Le Z4 est axé sur les performances, tandis que le N4 offre la meilleure solution rentable. Aujourd'hui, la version de démonstration des instances C4 est en mode privé, mais N4 sera actuellement disponible pour tous.

Extension des services cloud de Google

Google a présenté de nouvelles instances physiques C3, fonctionnant sur les anciens processeurs Intel Xeon de 4e génération, ainsi que des instances physiques X4 à mémoire optimisée, élargissant ainsi les options de service de l'infrastructure de Google. La série Z introduit le Z3 sur le marché de Google Cloud, étant toutes des machines virtuelles optimisées pour le stockage, qui sont en tête de leur catégorie en matière d'IOPS sans aucun autre fournisseur majeur de services cloud.

Les annonces faites par Google Cloud lors de l'événement de Las Vegas consolident la position de l'entreprise dans le secteur. Ces annonces prouvent que le leader du secteur du cloud computing est toujours aussi tron et qu'il le restera pour de bon. En 2025, Nvidia intégrera sa plateforme Blackwell, avec des unités de traitement, des solutions de stockage et des accélérateurs d'IA déjà actifs. Cela place Google Cloud à la pointe du cloud computing.  

Les transformations améliorent et élargissent non seulement idéalement la sphère du cloud computing de Google, mais servent également aux développeurs et aux entreprises, en tant que sources d'IA/ML infinies, ainsi que de calculs de traitement généraux. Cependant, alors que Google Cloud poursuit cet écosystème dynamique de cloud computing et maintient son ingéniosité, les stratégies et les inventions de l'entreprise représentent sa tron intention de créer un système informatique plus efficace, plus puissant et plus diversifié à l'avenir.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

Microsoft
cryptopolite
Abonnez-vous à CryptoPolitan