Microsoft ha presentato il suo chip di intelligenza artificiale di seconda generazione, Maia 200, nell'ambito dell'impegno a rafforzare il suo business nel cloud e a ridurre la dipendenza dai processori Nvidia.
La domanda di potenza di calcolo basata sull'intelligenza artificiale è aumentata vertiginosamente, costringendo i fornitori di servizi cloud a trovare un equilibrio tra efficienza energetica e prestazioni o costi.
Microsoft posiziona Maia 200 contro il dominio di Nvidia
In quanto componente chiave della strategia di Microsoft per il cloud computing e i chip di intelligenza artificiale, il nuovo Maia 200 di Microsoft offre un'alternativa al dominio di Nvidia in questo ambito.
Microsoft sta posizionando Maia 200 come concorrente della superiore potenza di elaborazione di Nvidia. Con l'introduzione di ogni serie di chip della famiglia Maia, Scott Guthrie, vicepresidente esecutivo di Microsoft per Cloud e AI, ha dichiarato che Maia 200 è "il sistema di inferenza più efficiente che Microsoft abbia mai realizzato".
Un analista con esperienza in ambienti hyperscale ha affermato che lo sviluppo del chip Maia era atteso da tempo. L'analista ha osservato che Microsoft ha adottato questa decisione perché ha bisogno di una tecnologia proprietaria per i chip per mantenere bassi i costi quando si utilizzano grandi quantità di potenza di elaborazione, anziché dover continuamente affittare risorse da Nvidia.
Un consulente cloud ha affermato che "affinché i maggiori fornitori di servizi cloud rimangano competitivi nel mercato attuale, devono sviluppare una tecnologia chip personalizzata"
da Cryptopolitan , l'introduzione dei chip Azure Maia 100 e Cobalt 100 nel 2023 ha segnato il primo passo di Microsoft nel percorso verso la produzione di semiconduttori per l'intelligenza artificiale. Questi chip erano destinati a svolgere un ruolo fondamentale nel potenziare le capacità del servizio di cloud computing Azure di Microsoft.
Guardando al futuro, Microsoft sta attivamente sviluppando versioni successive di questi chip, il che suggerisce l'impegno a rimanere all'avanguardia nella tecnologia dell'intelligenza artificiale e dei semiconduttori.
Mira all'efficienza e alla potenza nei data center
Il processore Maia 200, realizzato con tecnologia a 3 nanometri da Taiwan Semiconductor Manufacturing Company, è pensato per carichi di lavoro di inferenza. Poiché sempre più aziende cercano di implementare tecnologie di intelligenza artificiale anziché modelli di addestramento, questo è diventato un mercato in rapida espansione per aziende come Maia.
Secondo Microsoft, Maia 200 offre prestazioni superiori del 30% rispetto ad altri processori simili sul mercato e può elaborare una quantità di memoria ad alta larghezza di banda maggiore rispetto a quella di Amazon o Google. L'ingegnere di Microsoft ha affermato che l'efficienza dell'inferenza è il fattore determinante per i margini di profitto del settore cloud. Il minor consumo energetico di Maia 200 ne migliorerà la redditività.
Questo risultato è frutto della collaborazione con Arm, che ha svolto un ruolo fondamentale in questa impresa. L'impegno di Arm nel facilitare lo sviluppo di soluzioni in silicio personalizzate ha avuto un ruolo cruciale.
Gli ecosistemi Arm Neoverse CSS e Arm Total Design svolgono un ruolo centrale in questi sforzi, semplificando il complesso compito di fornire soluzioni personalizzate e specializzate per data center e infrastrutture di rete.
L'utilizzo di Maia 200 nel gruppo di superintelligenza di Microsoft, Microsoft 365 Copilot e Foundry AI, consentirà a Microsoft di raggiungere i suoi clienti attuali e potenziali, nonché di migliorare i suoi servizi cloud. Il roll-out di Maia 200 inizierà nei data center centrali di Microsoft negli Stati Uniti, per poi estendersi ad altre sedi.
Uno dei primi sviluppatori di software che ha testato Maia 200 ha affermato che l'utilizzo è un fattore chiave per il successo di Maia 200, affermando: "La prova definitiva è se riesce a consentire ai clienti di utilizzare il prodotto in modo realistico e su larga scala"

