Microsoft hat sich an die Spitze der KI-Hardware-Hierarchie gesetzt und alle anderen Tech-Giganten mit Ausgaben übertroffen. Allein in diesem Jahr wurden 485.000 Nvidia Hopper-Chips gekauft. Konkurrenten wie Meta, Amazon und Google geraten dadurch im KI-Wettlauf ins Hintertreffen.
Meta kam dem Ziel am nächsten, lag aber mit 224.000 Chips immer noch weit zurück. Amazon und Google? Nicht annähernd so weit, mit Bestellungen von 196.000 bzw. 169.000 Hopper-Chips.
Nvidias GPUs haben sich zum Goldstandard im Silicon Valley entwickelt und einen regelrechten Boom an Investitionen in Rechenzentren ausgelöst, um modernste KI-Modelle wie ChatGPT zu unterstützen. Microsoft setzt mit seiner Azure-Cloud-Infrastruktur voll auf KI als Zukunft der Technologie.
Microsofts Riesenschritt
Nvidias Hopper-Chips, die als Kronjuwelen der KI-Verarbeitung gelten, sind seit zwei Jahren der begehrteste Technologieartikel. Sie haben sich zu unverzichtbaren Werkzeugen für das Training und den Betrieb von KI-Modellen der nächsten Generation entwickelt.
Analysten von Omdia schätzen, dass sich die Einkäufe des Unternehmens im Vergleich zum Vorjahr mehr als verdreifacht haben – eine direkte Reaktion auf die sprunghaft angestiegene Nachfrage nach dem durchschlagenden Erfolg von ChatGPT.
„Eine gute Rechenzentrumsinfrastruktur erfordert mehrjährige Planung“, sagte Alistair Speirs, Senior Director für globale Azure-Infrastruktur bei Microsoft. Das Unternehmen positioniert sich zudem, um den Cloud-Markt zu dominieren, indem es seine Hardware über Azure an Kunden vermietet.
Die Analyse von Omdia zeigt, dass Microsofts Hopper-Lieferung die 230.000 von ByteDance und Tencent zusammen gekauften Chips deutlich übertrifft. Bei den nach China gelieferten Chips handelte es sich jedoch um modifizierte H2O-Modelle – herabgestufte Versionen, um den US-Exportbestimmungen zu entsprechen.
Nvidia hat diese Chips so modifiziert, dass ihre Leistungsfähigkeit eingeschränkt ist, aber selbst mit reduziertem Stromverbrauch werden sie von chinesischen Unternehmen reißend gekauft.
Die KI-Ausgabenorgie
Allein in diesem Jahr haben Technologieunternehmen unglaubliche 229 Milliarden US-Dollar in Server investiert, wobei Microsoft führend ist. Mit Investitionen in Höhe von 31 Milliarden US-Dollar ist das Unternehmen der größte Geldgeber im globalen Boom der KI-Infrastruktur und übertrifft Amazons 26 Milliarden US-Dollar deutlich.
Laut Omdia Nvidia- GPUs, was die Dominanz des Unternehmens im Bereich KI-Hardware weiter festigte. Nvidias Hopper-Chips mögen zwar im Mittelpunkt stehen, doch Microsoft setzt nicht alles auf eine Karte. Das Unternehmen hat mit der Einführung seiner eigenen Maia-Chips begonnen und in diesem Jahr bereits 200.000 Einheiten installiert.
Amazon hat unterdessen die Produktion seiner Trainium- und Inferentia-Chips deutlich gesteigert und setzt 1,3 Millionen Einheiten ein, um seine KI-Ambitionen voranzutreiben. Für Anthropic , einen OpenAI-Konkurrenten, den Amazon mit 8 Milliarden US-Dollar unterstützt,
Meta und Google setzen ebenfalls verstärkt auf ihre hauseigenen Chips und bringen jeweils rund 1,5 Millionen Einheiten ihrer kundenspezifischen Designs auf den Markt.

