NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

AMD stellt auf der CES 2026 in Las Vegas KI-PC-Chips der nächsten Generation vor

VonCollins J. OkothCollins J. Okoth
3 Minuten Lesezeit
AMD stellt auf der CES 2026 in Las Vegas KI-PC-Chips der nächsten Generation vor
  • AMD hat auf der CES 2026 in Las Vegas Pläne für seinen Helios AI Rack der nächsten Generation vorgestellt.
  • Die Geschäftsführerin des Unternehmens, Lisa Su, präsentierte das Helios-System erstmals während ihrer Keynote. 
  • AMD hat außerdem seine neuesten Ryzen AI Max+ Chips für leichte Workstations, Mini-PCs und Laptops vorgestellt.

AMD, ein US-amerikanischer multinationaler Technologiekonzern, hat Pläne für die Markteinführung seines Helios AI-Racks der nächsten Generation auf der CES 2026 in Las Vegas vorgestellt. Die CEO des Unternehmens, Lisa Su, präsentierte das Helios-System erstmals in ihrer Keynote und erläuterte dessen Design und Konstruktion genauer.

CEO Su präsentierte auf der Bühne ein großes Helios-Rack-System und pries dessen überlegene Leistung als direkten Angriff auf Nvidias Vera Rubin NVL72 an, das ebenfalls auf der CES 2026 vorgestellt wurde. Nvidia hat mit diesem System, das als neuestes Produkt auf den Markt kam, den Standard für Rack-Systeme gesetzt.

Laut Su wird Helios direkt mit Nvidias NVL-Systemen konkurrieren. AMD plant, 72 seiner MI455X-Chips mit den 72 Rubin-GPUs seines neuesten NVL72-Systems zu kombinieren. 

AMDs GPUs der MI500-Serie sollen 1000-fache KI-Rechenleistung bieten

AMD kündigte , seine Bemühungen auszuweiten und weitere Informationen zu seinen kommenden GPUs der MI500-Serie bereitzustellen. Diese sollen laut AMD die KI-Leistung der Mi300X-GPUs um das bis zu 1.000-Fache übertreffen. Su betonte, dass diese Leistungssteigerung in den kommenden Jahren notwendig sein werde und fügte hinzu, dass in den nächsten fünf Jahren rund fünf Milliarden Menschen KI täglich aktiv nutzen werden. 

AMD stellte außerdem seine neue Ryzen AI 400-Serie von PC-Chips vor, während Su die MI-455-Prozessoren präsentierte. Sie betonte, dass die MI-455-Prozessoren ein integraler Bestandteil der Rechenzentren seien, die KI-Programme unterstützen.

AMD präsentierte außerdem seine Ryzen AI Pro 400-Serie, die mit Intels neuen Core Ultra 3-Prozessoren konkurrieren wird. Die Core Ultra 3-Prozessoren basieren auf Intels neuer 18A-Prozesstechnologie.

vorzustellen humanoiden RoboterGENE.01 des Unternehmens erstmals der Öffentlichkeit 

Su stellte fest, dass Technologieunternehmen die globale Rechenkapazität in den kommenden Jahren mindestens verhundertfachen müssen. Von diesem Wachstum dürften sowohl Nvidia als auch AMD profitieren, deren Marktkapitalisierungen bisher auf 4,5 Billionen bzw. 359 Milliarden US-Dollar gestiegen sind.

AMD stellt Ryzen AI Max+ Chips vor

AMD präsentierte außerdem seine neuesten Ryzen AI Max+ Chips für leichte Workstations, Mini-PCs und Laptops. Zudem wurde die Entwicklerplattform Ryzen Halo vorgestellt. Der Mini-PC ermöglicht es Entwicklern, KI-Modelle lokal zu erstellen, anstatt auf Cloud-Lösungen angewiesen zu sein. 

Die Halo-Entwicklerplattform konkurriert mit Nvidias Konkurrenzprodukt, dem DGX Spark Mini-PC, der fast 4.000 US-Dollar kostet. AMD hat jedoch noch keine Preisdetails für Halo bekannt gegeben.

Nvidia präsentierte die Rubin-Plattform, die Rubin-GPUs und Vera-CPUs zu einem einzigen Vera-Rubin-Prozessor vereint. Nvidia beschreibt die Rubin-Plattform als ideale agentenbasierte KI mit fortschrittlichen Schlussfolgerungsmodellen. 

„Rubin kommt genau zum richtigen Zeitpunkt, da die Nachfrage nach KI-Rechenleistungen sowohl für das Training als auch für die Inferenz rasant ansteigt.“

Jensen Huang, CEO bei Nvidia

Die Rubin-Plattform umfasst neben den Rubin-GPUs und den Vera-CPUs die Nvidia BlueField-4 DPU, den Nvidia NVLink 6 Switch, den Nvidia Spectrum-6 Ethernet Switch und die Nvidia ConnectX-9 SuperNIC.

Durch die Kombination mehrerer NVL72-Prozessoren entsteht Nvidias KI-Supercomputer DGXX SuperPOD. Hyperscaler wie Microsoft, Amazon, Meta und Google investieren Milliarden von Dollar in den Erwerb dieser Großsysteme. 

Nvidia wies außerdem darauf hin, dass die Rubin-Plattform effizienter als ihre Vorgänger ist, was voraussichtlich zu einer Vervierfachung der benötigten GPU-Anzahl für das Training derselben MoE-Systeme führen wird. Durch die geringere Anzahl an GPUs können die zusätzlichen GPUs anderen Aufgaben zugewiesen werden. Rubin wird zudem die Kosten für Inferenz-Token um bis zu 90 % senken.

Unterdessen bewirbt Nvidia weiterhin seinen KI-Speicher, den Nvidia Inference Context Memory Storage. Das Technologieunternehmen gibt an, dass dieser KI-gesteuerte Speicher für die Speicherung und Weitergabe von Daten konzipiert wurde, die von einem mehrstufigen KI-Schlussfolgerungsmodell mit Billionen von Parametern generiert werden.

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS