Microsoft a dévoilé sa puce d'intelligence artificielle de deuxième génération, Maia 200, dans le cadre de ses efforts pour renforcer son activité cloud et réduire sa dépendance aux processeurs Nvidia.
La demande en puissance de calcul pour l'intelligence artificielle a explosé, obligeant les fournisseurs de services cloud à trouver un équilibre entre efficacité énergétique et performance ou coûts.
Microsoft positionne la Maia 200 face à la domination de Nvidia
Composante clé de la stratégie de Microsoft en matière de cloud computing et de puces d'IA, la nouvelle puce Maia 200 offre une alternative à la domination de Nvidia dans ce domaine.
Microsoft positionne le Maia 200 comme un concurrent direct de la puissance de traitement supérieure de Nvidia. Lors du lancement de chaque nouvelle série de puces de la famille Maia, Scott Guthrie, vice-président exécutif de Microsoft en charge du Cloud et de l'IA, a déclaré que le Maia 200 est « le système d'inférence le plus performant jamais conçu par Microsoft ».
Un analyste spécialisé dans les environnements hyperscale a déclaré que le développement de la puce Maia était attendu depuis longtemps. Il a souligné que Microsoft avait pris cette décision car l'entreprise avait besoin de sa propre technologie de puce propriétaire pour maîtriser ses coûts lors de l'utilisation d'une puissance de calcul importante, plutôt que de louer constamment des ressources auprès de Nvidia.
Un consultant en services cloud a déclaré que « pour que les plus grands fournisseurs de services cloud restent compétitifs sur le marché actuel, ils doivent développer une technologie de puces personnalisée »
Cryptopolitan Cryptopolitan précédemment indiqué que le lancement des puces Azure Maia 100 et Cobalt 100 en 2023 marquait la première étape de l'entrée de Microsoft dans la production de semi-conducteurs pour l'IA. Ces puces étaient destinées à jouer un rôle crucial dans l'amélioration des capacités du service de cloud computing Azure de Microsoft.
Pour l'avenir, Microsoft développe activement des versions ultérieures de ces puces, ce qui témoigne de sa volonté de rester à la pointe de l'IA et de la technologie des semi-conducteurs.
Objectifs : efficacité et consommation énergétique des centres de données
Le processeur Maia 200, fabriqué avec une technologie 3 nanomètres par Taiwan Semiconductor Manufacturing Company, est conçu pour les charges de travail d'inférence. Face à l'intérêt croissant des entreprises pour l'IA et la mise en œuvre de technologies alternatives plutôt que pour l'entraînement de modèles, ce marché est en pleine expansion pour des sociétés comme Maia.
D'après Microsoft, le Maia 200 offre des performances supérieures de 30 % à celles des autres processeurs similaires du marché et peut traiter une quantité de mémoire à large bande passante plus importante que ceux d'Amazon ou de Google. Un ingénieur de Microsoft a déclaré que l'efficacité du traitement des données est un facteur déterminant de la rentabilité des services cloud. La faible consommation énergétique du Maia 200 contribuera à améliorer sa rentabilité.
Ce résultat est le fruit d'une collaboration avec Arm, dont le rôle a été déterminant dans cette aventure. L'engagement d'Arm à faciliter le développement de solutions de silicium personnalisées a été essentiel.
Les écosystèmes Arm Neoverse CSS et Arm Total Design sont essentiels à ces efforts, simplifiant la tâche complexe de fournir des solutions personnalisées et spécialisées pour les centres de données et les infrastructures réseau.
L'utilisation du Maia 200 au sein du groupe de superintelligence de Microsoft, de Microsoft 365 Copilot et de Foundry AI permettra à Microsoft d'interagir avec ses clients actuels et potentiels, et d'améliorer ses services cloud. Le déploiement du Maia 200 débutera dans les centres de données centraux de Microsoft aux États-Unis, avant d'être étendu à d'autres sites.
Un des premiers développeurs de logiciels à tester le Maia 200 a déclaré que l'utilisation est un facteur clé du succès du Maia 200, en disant : « Le test ultime est de savoir s'il peut permettre aux clients d'utiliser le produit à grande échelle de manière réaliste. »

