- Diese Woche beginnt NVIDIA mit der Auslieferung des DGX Spark, dem kleinsten KI-Supercomputer der Welt.
- Das Gerät kann ab dem 15. dieses Monats über die Website des Unternehmens und Partnerhersteller wie Acer bestellt werden.
- DGX Spark basiert auf der Grace Blackwell-Architektur, die GPUs, CPUs, Netzwerkfunktionen, CUDA-Bibliotheken und KI-Software integriert.
NVIDIA hat den DGX Spark vorgestellt, den kleinsten KI-Supercomputer der Welt, der ab dieser Woche ausgeliefert wird. Das Gerät integriert GPUs, CPUs, Netzwerkkomponenten, CUDA-Bibliotheken und KI-Software.
Die neue Version ist mit dem GB10 Grace Blackwell Superchip ausgestattet. Sie bietet eine KI-Leistung von bis zu 1 Petaflop und 128 GB integrierten CPU-GPU-Speicher in einem kompakten Desktop-Gehäuse. Der Supercomputer nutzt ConnectX-7 200-Gbit/s-Netzwerktechnologie und NVLink-C2C, die die fünffache Bandbreite von PCIe der fünften Generation bietet.
Huang sagt, DGX Spark werde die Rechenleistung von KI demokratisieren
Jensen Huang, CEO von NVIDIA, gab bekannt, dass der DGX Spark das Unternehmen zu seiner ursprünglichen Mission zurückführt, die Rechenleistung für KI zu demokratisieren.
„2016 bauten wir DGX-1, um KI-Forschern ihren Supercomputer zur Verfügung zu stellen. Ich übergab das erste System persönlich an Elon Musk bei einem kleinen Startup namens OpenAI, und daraus entstand ChatGPT. Mit DGX Spark kehren wir zu dieser Mission zurück und geben jedem Entwickler einen KI-Computer in die Hand, um die nächste Welle bahnbrechender Innovationen auszulösen.“
–Jensen Huang, CEO von NVIDIA
Der DGX Spark ermöglicht Entwicklern die Inferenz von Modellen mit bis zu 200 Milliarden Parametern und die lokale Feinabstimmung von Modellen mit bis zu 70 Milliarden Parametern. Dadurch entfällt die Abhängigkeit von Cloud- oder Rechenzentrumsdiensten. Im aktuellen Blogbeitrag wurde bekannt gegeben, dass der DGX Spark mit dem vollständigen NVIDIA AI-Software-Stack, einschließlich CUDA-Bibliotheken und NIM-Mikrodiensten, vorinstalliert ist. Dieser Software-Stack ermöglicht die sofortige Bereitstellung von KI-Workflows, darunter Bildgenerierung, Bildsuche und die Optimierung von Sprachmodellen.
Zu den ersten Anwendern zählen Anaconda, Google, Hugging Face, Meta, Microsoft, JetBrains, Docker und LM Studio, die ihre Tools für Spark validiert und optimiert haben. Auch Forschungseinrichtungen wie das Global Frontier Lab der NYU haben mit dem Testen des Systems begonnen. Kyunghyun Cho, Professor für Informatik und Datenwissenschaft an der NYU, erklärte, dass der DGX Spark den Zugriff auf Petascale-Computing auf einem Desktop-PC ermöglicht. Er fügte hinzu, dass er schnelles Prototyping und Experimentieren mit fortschrittlichen KI-Modellen erlaubt, selbst für datenschutzsensible Anwendungen wie im Gesundheitswesen.
DGX Spark läuft auf NVIDIAs Linux-basiertem DGX-Betriebssystem und ist speziell für die Entwicklung und das Training von KI-Modellen konzipiert, nicht für Endverbraucheranwendungen. Benutzer können zudem zwei Spark-Systeme verbinden, um Modelle mit bis zu 405 Milliarden Parametern zu unterstützen.
Huang übergab eine der ersten DGX Spark-Einheiten an Elon Musk in der SpaceX-Einrichtung Starbase in Texas, um den Start zu feiern, in Anlehnung an die Auslieferung der ursprünglichen DGX-1 an OpenAI im Jahr 2016.
Die NVIDIA-Aktie legte heute nach der Ankündigung um 2,88 % zu
NVIDIA gab bekannt, dass die DGX Spark ab dem 15. Oktober über die NVIDIA-Website und ausgewählte Partnerhersteller, darunter Acer, ASUS, Dell Technologies, GIGABYTE, HP, Lenovo und MSI, bestellt werden kann. Sie wird außerdem in den US-amerikanischen Micro Center-Filialen erhältlich sein und später über das Vertriebsnetz des KI-Labors weltweit verfügbar sein.
🚨NVIDIA und seine Partner werden mit der Auslieferung von DGX Spark beginnen – dem kleinsten KI-Supercomputer der Welt.⁰⁰Die ersten Empfänger testen, validieren und optimieren ihre Tools, Software und Modelle für DGX Spark.
Basierend auf der NVIDIA Grace Blackwell-Architektur integriert DGX Spark… pic.twitter.com/5VPBDvwXFd
— NVIDIA Newsroom (@nvidianewsroom) 13. Oktober 2025
Die Markteinführung folgt auf die laufenden GPU-Lieferverträge von NVIDIA mit OpenAI, xAI, Amazon, Microsoft, Meta, Google und anderen KI-Unternehmen. Das Unternehmen gab kürzlich einen GPU-Liefervertrag über 100 Milliarden US-Dollar mit OpenAI und einen Vertrag über 6,3 Milliarden US-Dollar mit CoreWeave bekannt.
Cryptopolitan berichtete , dass der KI-Chiphersteller NVIDIA 100 Milliarden US-Dollar in OpenAI investieren wird, um dem KI-Labor beim Aufbau massiver Rechenzentren mit NVIDIA-Prozessoren zu helfen. Die Unternehmen gaben bekannt, dass OpenAI NVIDIA-Systeme einsetzen wird, die insgesamt 10 Gigawatt Leistung benötigen. Die Gigawatt-Einheit, die mittlerweile häufiger zur Beschreibung großer KI-Chipcluster verwendet wird, verdeutlicht den Umfang des Projekts. Jensen Huang erklärte gegenüber Jon Fortt von CNBC in San Jose, Kalifornien, dass 10 Gigawatt etwa 4 bis 5 Millionen GPUs entsprechen. Dies entspricht der Menge an Geräten, die der KI-Chiphersteller dieses Jahr voraussichtlich ausliefern wird – doppelt so viel wie im Vorjahr.
Laut Daten von Google Finance notierte die NVIDIA-Aktie zum Zeitpunkt der Veröffentlichung bei 188,32 US-Dollar, was einem Anstieg von 2,88 % innerhalb der letzten 24 Stunden entspricht. Die Aktie verzeichnete zudem seit Jahresbeginn ein Plus von 40,23 %, was das anhaltend hohe Vertrauen der Anleger in die Leistung des KI-Chipherstellers unterstreicht.
Wenn Sie einen ruhigeren Einstieg in die DeFi Kryptowährungen ohne den üblichen Hype wünschen, beginnen Sie mit diesem kostenlosen Video.
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















