NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

AMD bringt die Instinct MI300-Serie von KI-Chips auf den Markt und rüstet sich für den Konkurrenzkampf mit Nvidia

VonAamir SheikhAamir Sheikh
Lesezeit: 2 Minuten
KI-Chips
  • AMD präsentiert die Instinct MI300X, eine Rechenzentrums-GPU, die Nvidias Flaggschiff H100 in puncto Speicherleistung und wichtigen KI-Kennzahlen übertrifft und Kosteneinsparungen verspricht. Die MI300X wird von führenden OEMs wie Dell, HPE, Lenovo und Supermicro unterstützt.
  • AMD stellt den CPU-GPU-Hybridchip Instinct MI300A für Rechenzentren vor, der mit Nvidia konkurrieren soll. Der MI300A verfügt über x86-basierte Zen-4-Kerne, CDNA-3-Architektur und 128 GB HBM3-Speicher und zielt auf Energieeffizienz und Vorteile durch integrierten Speicher ab.
  • Die GPU-Programmierplattform ROCm 6 wurde als offene Alternative zu Nvidias CUDA veröffentlicht. AMD will die hohe Nachfrage nach Nvidia-GPUs bedienen, indem es wettbewerbsfähige Lösungen mit fortschrittlichen Optimierungen und erweiterter Unterstützung anbietet.

AMD hat mit der Instinct MI300X, einer Rechenzentrums-GPU, die Nvidias Vormachtstellung im Bereich KI-Computing herausfordert, einen wichtigen Schritt getan. Die GPU zeichnet sich durch überlegene Speicherkapazitäten aus und übertrifft Nvidias Flaggschiff H100 in zentralen KI-Kennzahlen. AMDs strategischer Vorstoß in den KI-Bereich wird von Branchengrößen wie Microsoft, Dell und HPE unterstützt. Dies markiert einen bedeutenden Meilenstein für AMD auf dem Weg zur Neugestaltung der KI-Chip-Landschaft.

Instinct MI300X – Grenzen überwinden

AMDs Instinct MI300X, basierend auf der CDNA-3-Architektur, etabliert sich als ernstzunehmender Konkurrent für Nvidias H100. Mit 192 GB HBM3-Speicher übertrifft die MI300X die Kapazität der H100 um das 2,4-Fache und bietet eine Speicherbandbreite von 5,3 TB/s – 60 % mehr als die der H100. Trotz einer etwas höheren Leistungsaufnahme von 750 Watt bietet die MI300X eine unübertroffene Performance: Sie erreicht 163,4 Teraflops bei Matrixoperationen, ist bei wichtigen KI-Kennzahlen 30 % schneller und bietet zudem ein hervorragendes Preis-Leistungs-Verhältnis.

AMD plant die Einführung des MI300X in der Instinct MI300X-Plattform mit einer Spitzenleistung von 10,4 Petaflops, 1,5 TB HBM3-Speicher und 896 GB/s Infinity Fabric-Bandbreite. Die Plattform im Standarddesign ermöglicht OEMs die nahtlose Integration von MI300X-Beschleunigern und bietet im Vergleich zur H100 HGX-Plattform von Nvidia die 2,4-fache Speicherkapazität und 30 % mehr Rechenleistung. AMD legt Wert auf verbesserte Speicherkapazität, was zu geringeren Investitionskosten und höherer Effizienz bei Servern mit KI-Beschleunigern führt.

Instinct MI300A – Entfesselte Leistung und Effizienz

AMDs Instinct MI300A, die weltweit erste Rechenzentrums-APU für HPC und KI, markiert einen Paradigmenwechsel durch die Kombination von x86-basierten Zen-4-Kernen und GPU-Kernen auf einem einzigen Chip. Mit 128 GB HBM3-Speicher bietet die MI300A 60 % mehr Kapazität als Nvidias H100 und unterstreicht damit ihre Energieeffizienz und die Vorteile des integrierten Speichers. Serverhersteller können die TDP der MI300A zwischen 550 und 760 Watt konfigurieren, was einen signifikanten Leistungssprung im HPC-Bereich ermöglicht.

Der einzigartige Vorteil der MI300A liegt in ihrer Energieeffizienz, dem gemeinsamen Speicher von CPU- und GPU-Kernen sowie der einfach programmierbaren GPU-Plattform. AMD hebt hervor, dass die APU dank des einheitlichen Speichers den Datentransfer zwischen Prozessoren eliminiert und so die Leistung steigert und das Energiemanagement optimiert. Die MI300A beweist ihre Energieeffizienz und übertrifft Nvidias GH200 Grace Hopper Superchip mit einer doppelt so hohen HPC-Spitzenleistung. In diversen HPC-Benchmarks zeigt die MI300A überlegene Leistung und liefert damit überzeugende Argumente für ihre Integration in Server der nächsten Generation.

AMDs offene Alternative – die GPU-Programmierplattform ROCm 6

Um der steigenden Nachfrage nach Nvidia-GPUs strategisch zu begegnen, stellt AMD ROCm 6 vor und positioniert es als offene Alternative zu Nvidias CUDA-Plattform. ROCm 6 bietet fortschrittliche Optimierungen für große Sprachmodelle, aktualisierte Bibliotheken für verbesserte Leistung und erweiterte Unterstützung für diverse Frameworks, KI-Modelle und Machine-Learning-Pipelines. Diese Initiative positioniert AMD alstronKonkurrenten und bietet Unternehmen angesichts der GPU-Engpässe von Nvidia praktikable Alternativen.

Ein Paradigmenwechsel in der Dominanz von KI-Chips?

AMDs mutiger Vorstoß in den Markt für KI-Chips mit den Instinct MI300X und MI300A, unterstützt durch die ROCm 6-Plattform, stellt Nvidias langjährige Dominanz vor eine ernsthafte Herausforderung. Da große OEMs wie Dell, HPE und andere AMDs innovative Lösungen, erlebt die Branche einen Wandel in der Dynamik des KI-Computing. Angesichts der Suche von Unternehmen nach Alternativen zu Nvidias GPU-Engpässen stellt sich die Frage: Ist AMD bereit, die Zukunft der KI-Chip-Dominanz neu zudefi? Die wahren Auswirkungen dieser bahnbrechenden Entwicklung werden erst mit der Zeit sichtbar werden.

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS