Advanced Micro Devices (AMD) hat mit der Einführung seiner Instinct MI300-Serie offiziell den Wettbewerb um die Vormachtstellung von Nvidia im Markt für KI-Beschleuniger aufgenommen . Dieser Schritt dürfte einen erbitterten Wettbewerb zwischen den beiden Technologiegiganten entfachen. AMD prognostiziert, dass dieser Markt im Jahr 2023 ein Volumen von 45 Milliarden US-Dollar erreichen und bis 2027 auf 400 Milliarden US-Dollar anwachsen wird. Mit dem Ziel, im Jahr 2024 KI-Chips im Wert von über 2 Milliarden US-Dollar zu verkaufen, bereitet sich AMD auf einen aggressiven Vorstoß in den KI-Bereich vor.
Ein Leistungssprung mit dem MI300X
AMD stellt zwei KI-Beschleuniger vor, wobei der MI300X als Hauptkonkurrent von Nvidias H100 positioniert ist. Eines der herausragenden Merkmale des MI300X ist sein beeindruckender 192 GB großer Arbeitsspeicher mit hoher Bandbreite, der mehr als doppelt so groß ist wie die Speicherkapazität des Nvidia H100. Dieser erhebliche Speichervorteil könnte entscheidend sein, insbesondere für Anwendungen mit großen Sprachmodellen (LLMs), die umfangreiche Speicherressourcen benötigen.
Im Vergleich zu Nvidias H100 macht AMD gewagte Leistungsversprechen für die MI300X. Sie soll bei Inferenzberechnungen auf bestimmten LLMs die 1,6-fache Leistung erbringen, wobei das BLOOM-176B-Modell als Beispiel genannt wird. Ein weiteres bemerkenswertes Merkmal ist die Fähigkeit der MI300X, Inferenzberechnungen auf einem Modell mit 70 Milliarden Parametern durchzuführen – eine Fähigkeit, die Nvidias aktuelles Produktportfolio nicht bietet.
Wir stellen den MI300A mit Zen 4 CPU-Kernen vor
Während der MI300X als High-End-Option gilt, bietet AMD mit dem MI300A eine Alternative mit einem anderen Leistungsumfang. Der MI300A verfügt zwar über weniger GPU-Kerne und Speicher als der MI300X, ist aber mit AMDs neuesten Zen-4-CPU-Kernen ausgestattet. Diese Konfiguration positioniert den MI300A für den Markt der Hochleistungsrechner mit einemtronFokus auf Effizienz. AMD gibt an, dass der MI300A im Vergleich zum Vorgängermodell MI250X die 1,9-fache Leistung pro Watt liefert.
Ein wesentlicher Vorteil von Nvidia im Markt für Rechenzentrums-GPUs ist sein Software-Ökosystem. Nvidias CUDA-Plattform, die vor über 16 Jahren etabliert wurde, hat sich zum Industriestandard für die Nutzung von GPUs für Rechenaufgaben entwickelt. Die Herausforderung für Wettbewerber wie AMD besteht darin, dass CUDA ausschließlich Nvidia-GPUs unterstützt, was einen nahtlosen Wechsel zu anderen KI-Chip-Anbietern für Kunden erschwert.
Als Antwort darauf bietet AMD ROCm an, eine offene GPU-Computing-Plattform, die mittlerweile in der sechsten Version verfügbar ist. ROCm unterstützt gängige KI-Frameworks wie TensorFlow und PyTorch, und AMD hat sein Ökosystem durch strategische Partnerschaften und Übernahmen erweitert. Besonders hervorzuheben ist die Akquisition des Open-Source-KI-Softwareunternehmens Nod.ai, mit der AMD seine Softwarekompetenz stärken und den Abstand zu Nvidia verringern wollte.
Wichtige Partnerschaften und Kundenakzeptanz
Während Nvidia seinen Softwarevorsprung behauptet, konnte AMD bereits namhafte Kunden für seine neuen KI-Chips gewinnen. Microsoft und Meta Platforms (ehemals Facebook) haben sich zur Nutzung der AMD-Technologie verpflichtet. Microsoft wird in Kürze eine neue virtuelle Serverserie auf Azure einführen, die auf dem MI300X basiert, während Meta Platforms den MI300X für verschiedene KI-Inferenz-Workloads einsetzen will.
Darüber hinaus wird Oracle Bare-Metal-Instanzen mit MI300X-Chips anbieten, und große Hardwarehersteller wie Dell, Hewlett-Packard Enterprise, Lenovo und Supermicro planen Systeme, die auf den neuen KI-Produkten von AMD basieren.
AMD ist gut aufgestellt, um die stark steigende Nachfrage nach KI-Beschleunigern kurzfristig zu decken. Die langfristige Entwicklung dieses Marktes bleibt jedoch ungewiss. KI ist nach wie vor eine Schlüsseltechnologie, doch mit zunehmendem Wettbewerb und dem Aufkommen weiterer Alternativen zu Nvidia könnte der Preisdruck steigen.

