Nvidia setzt sich mit neuen Rubin-Chips im Bereich KI-Hardware deutlich ab

- Die neuen Rubin-KI-Chips von Nvidia sind fast fertig und werden bald von Kunden getestet.
- Rubin ist deutlich schneller als die vorherigen Blackwell-Chips, mit einer 3,5-mal schnelleren Trainingszeit und einer 5-mal schnelleren KI-Leistung.
- Große Cloud-Anbieter wie Microsoft, Google Cloud und AWS werden zu den ersten gehören, die Rubin einsetzen, das zudem kostengünstiger im Betrieb ist.
Nvidia hat im globalen Wettlauf um High-End-KI-Lösungen einen weiteren wichtigen Schritt unternommen. Das Unternehmen gibt an, dass seine neuen Rubin-Rechenzentrumschips fast fertig für die Markteinführung im Laufe dieses Jahres sind und Kunden sie in Kürze testen werden.
Alle sechs Rubin-Chips sind von Nvidias Fertigungspartnern eingetroffen, teilte Nvidia mit. Die Chips haben bereits mehrere wichtige Testverfahren durchlaufen und sollen planmäßig bei Kunden zum Einsatz kommen. Das Unternehmen betont, dass dieser frühe Fortschritt wichtig ist, da KI-Unternehmen und Rechenzentren um schnellere und effizientere Hardware konkurrieren.
Nvidia-Chef Jensen Huang präsentierte diese Neuigkeiten in seiner Keynote-Ansprache auf der ConsumertronShow (CES) in Las Vegas. Die CES zählt zu den größten Technologiemessen weltweit, auf denen Hersteller neue Produkte und Ideen vorstellen. „Das Rennen um KI hat begonnen“, sagte Huang angesichts des rasanten Wettlaufs der Technologieunternehmen um die Entwicklung der nächsten KI-Generation.
Seine Äußerungen lassen darauf schließen, dass Nvidia fest davon überzeugt ist, weiterhin der weltweit führende Hersteller von KI-Beschleunigern zu sein. Diese Beschleuniger sind Spezialchips, die in Rechenzentren zum Trainieren und Ausführen von KI-Modellen eingesetzt werden. Diese Modelle bilden die Grundlage für Anwendungen wie Chatbots, Bilderkennungssysteme und hochentwickelte Roboter.
Rubin-Chips sorgen für eine deutliche Leistungssteigerung
Rubin ist Nvidias neuester KI-Beschleuniger und Nachfolger der Vorgängergeneration Blackwell. Laut Nvidia trainiert Rubin KI-Modelle 3,5-mal schneller und führt KI-Software fünfmal schneller aus als Blackwell. Beim KI-Training lernen Modelle aus großen Datenmengen, während die Ausführung von KI bedeutet, diese Modelle in Echtzeit zur Ausführung von Aufgaben zu nutzen.
Rubin ergänzt die Ausstattung um eine neue zentrale Verarbeitungseinheit (CPU) mit 88 Kernen. Kerne sind die Bestandteile eines Chips, die Berechnungen durchführen und Daten verarbeiten. Mit der doppelten Leistung des Vorgängerchips eignet sich diese neue CPU besser für komplexere KI-Anwendungen. Auf der Frühjahrskonferenz GTC von Nvidia in Kalifornien präsentiert das Unternehmen üblicherweise alle Produktdetails.
Dieses Mal waren mehr Informationen ausverkauft als üblich. Dieser Schritt wird als Mittel gesehen, um Konsumenten und Entwickler weiterhin auf Nvidias Hardware zu fokussieren, da die KI-Nutzung rasant zunimmt. Huang selbst trat ebenfalls mehrfach öffentlich auf, um für KI-Produkte, Partnerschaften und Investitionen zu werben. Nvidia war jedoch nicht der einzige Akteur im Rampenlicht der CES. Lisa Su, CEO des Konkurrenten Advanced Micro Devices (AMD), hielt ebenfalls eine Keynote und hob den zunehmenden Wettbewerb auf dem Chipmarkt hervor.
Nvidia wirbt angesichts des zunehmenden Wettbewerbs um Großkunden
Manche Investoren befürchten, dass der Wettbewerb für Nvidia zunimmt. Auch andere Technologieunternehmen entwickeln eigene KI-Chips, sodass es schwer abzuschätzen ist, ob die Investitionen in KI mithalten können.
Nvidia hingegen ist optimistisch und glaubt, dass der langfristige Markt für künstliche Intelligenz einen Wert von Billionen von Dollar erreichen könnte, angetrieben durch die Nachfrage aus Branchen wie Cloud Computing, Unternehmen und aufstrebenden Sektoren.
Die Rubin-Hardware wird im DGX SuperPod von Nvidia zum Einsatz kommen, einem leistungsstarken Supercomputer für umfangreiche KI-Anwendungen. Gleichzeitig können Kunden die Rubin-Chips als Einzelkomponenten erwerben und so flexiblere und modularere Systeme zusammenstellen.
Die gesteigerte Leistungsfähigkeit ist besonders wichtig, da sich KI-Systeme ständig weiterentwickeln. Moderne KI stützt sich zunehmend auf Netzwerke spezialisierter Modelle, die nicht nur riesige Datenmengen verarbeiten, sondern auch Probleme in mehreren Schritten lösen. Zu diesen Aufgaben gehören Planung, Schlussfolgerung und Entscheidungsfindung.
Nvidia betonte außerdem, dass Rubin-basierte Systeme im Betrieb kostengünstiger sein werden als Blackwell-Systeme. Da Rubin mit weniger Komponenten die gleichen Ergebnisse liefert, können Rechenzentren Energie- und Betriebskosten sparen.
Große Cloud-Computing-Anbieter wie Microsoft, Google Cloud und Amazon Web Services (AWS) werden voraussichtlich zu den ersten gehören, die Rubin-Hardware in der zweiten Jahreshälfte einsetzen. Diese Unternehmen tätigen derzeit den Großteil der Ausgaben für KI-Systeme mit Nvidia-Grafikkarte.
Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.
Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















