AWS entwickelt maßgeschneiderte Kühltechnologie für Nvidia AI-Chips

- AWS entwickelte ein maßgeschneidertes Flüssigkeitskühlsystem namens In-Row Heat Exchanger (IRHX), um die KI-GPUs der nächsten Generation von Nvidia zu kühlen.
- Die GPUs von Nvidia erzeugen viel Wärme und benötigen eine fortschrittliche Kühlung, die über herkömmliche Luftkühlungssysteme hinausgeht.
- AWS hat neue P6e-Instanzen mit gekühlten Nvidia Blackwell GPUs für KI-Workloads auf den Markt gebracht.
Amazons Cloud-Computing-Sparte Amazon Web Services (AWS) hat ein maßgeschneidertes Kühlsystem entwickelt, um die Temperaturen der leistungsstarken neuen künstlichen Intelligenz-Chips (KI) von Nvidia im Zaum zu halten.
Am Mittwoch gab AWS die Entwicklung des In-Row Heat Exchanger (IRHX) bekannt, eines speziell für Rechenzentren mit leistungsstarken Nvidia-GPUs entwickelten Flüssigkeitskühlsystems.
Solche Chips, die zum Trainieren großer KI-Modelle wie der heute so beliebten Chatbots oder Bildgeneratoren verwendet werden, gehören zu den energieintensivsten Hardwarekomponenten weltweit. Ihre zunehmende Verbreitung in KI-Anwendungen hat herkömmliche Kühllösungen, insbesondere Luftkühlung, an ihre Grenzen gebracht.
Anstatt die Entwicklung einer skalierbaren Kühllösung dem Markt zu überlassen, musste Amazon kreativ werden und eine Lösung finden. Das IRHX-System eignet sich sowohl für die Nachrüstung bestehender als auch für neue Rechenzentrumsanwendungen, ohne dass eine grundlegende Neugestaltung erforderlich ist. Es zirkuliert gekühlte Flüssigkeit nahe an den Serverreihen, um die Wärme von den dicht beieinander liegenden GPUs abzuführen.
Dave Brown, Vizepräsidentdent Compute- und Machine-Learning-Services bei AWS, erklärte , dass herkömmliche Kühllösungen für ihre Anforderungen nicht geeignet seien. Diese Optionen hätten zu viel Platz im Rechenzentrum und Wasser ineffizient genutzt. Zwar könnten solche Systeme für einige wenige Serverschränke bei kleineren Anbietern funktionieren, doch fehle ihnen die für die Größenordnung von AWS erforderliche Flüssigkeitskühlkapazität.
AWS bringt P6e-Instanzen mit Nvidia Blackwell-GPUs auf den Markt
AWS hat außerdem kürzlich eingeführt P6e-Instanzen , die Nvidias GB200 NVL72 nutzen, eine leistungsstarke Supercomputing-Plattform mit 72 Blackwell-GPUs in einem Rack. Diese sind für die rechenintensive Natur umfangreicher KI-Modelle und generativer KI-Aufgaben ausgelegt.
Bislang boten nur Unternehmen wie Microsoft und CoreWeave einen GPU-Cluster der nächsten Generation an. Jetzt können AWS-Kunden auf die neueste und fortschrittlichste, individuell anpassbare GPU-basierte Infrastruktur für maschinelles Lernen in der Cloud zugreifen, die von den wassergekühlten NVIDIA A100 Tensor Core GPUs der neuesten Generation angetrieben wird.
Das IRHX-System hält diese Clusterbereiche auf sicheren Temperaturen und gewährleistet so optimale Leistung ohne Überhitzung. Durch die Integration des IRHX direkt in das Rechenzentrumsdesign kann AWS aufwendige Nachrüstungen ganzer Gebäude für Flüssigkeitskühlung oder kostspielige Neubauten vermeiden.
In seiner Ankündigung zum Marktstart des P6e hob Brown hervor, dass Kunden durch die Kombination des GB200 NVL72-Systems mit Amazons IRHX eine unübertroffene Rechenleistung in großem Umfang nutzen können. Entwickler, Forscher und Unternehmen können damit deutlich größere KI-Modelle schneller und effizienter trainieren als bisher.
Amazon baut seine Führungsposition im Bereich Cloud-Infrastruktur weiter aus
Amazons Bestrebungen, die Kühltechnologie im im Bau befindlichen Rechenzentrum intern zu entwickeln, verdeutlichen Amazons umfassenderes Ziel, mehr Kontrolle über seine Infrastruktur zu erlangen. In den letzten Jahren hat AWS massiv in die Entwicklung eigener Chips, Speichersysteme und Netzwerkkomponenten um seine Cloud-Dienste zu betreiben.
Diese Fortschritte ermöglichen es Amazon, die Abhängigkeit von Drittanbietern weiter zu verringern und ein Gleichgewicht zwischen operativer Leistungsfähigkeit und Kosten herzustellen.
Dieser Ansatz hat sich ausgezahlt. Im ersten Quartal 2025 erzielte AWS die höchste operative Marge seit Gründung des Unternehmens und ist heute der wichtigste Motor für Amazons Gesamtprofitabilität. Die Einführung von IRHX stärkt die Innovationsführerschaft und Infrastrukturpräsenz von AWS in der Cloud-Branche.
Auch andere Technologiekonzerne gehen diesen Weg. Microsoft beispielsweise hat eigene KI-Chips und das dazugehörige, speziell angepasste Kühlsystem Sidekicks entwickelt. Google und Meta erforschen ebenfalls Möglichkeiten, Hardware und Systeme zu konstruieren, die auf KI-Workloads zugeschnitten sind.
Amazon verfügt jedoch über einen entscheidenden Vorteil: sein weitverzweigtes globales Netz von Rechenzentren und jahrelange Erfahrung in der Entwicklung und dem Einsatz kundenspezifischer Hardware im großen Maßstab. Das IRHX könnte diesen Vorteil noch verstärken, indem es die KI-fähige Infrastruktur optimiert und sie dadurch effizienter, nachhaltiger und skalierbarer macht.
Da KI den Bedarf an immer leistungsfähigeren Rechenressourcen antreibt, werden Innovationen wie IRHX wichtiger denn je. Amazon rechtfertigt damit erneut seine beträchtlichen Investitionen in spezialisierte Infrastruktur, um im hart umkämpften Markt für KI-Lösungen in der Cloud wettbewerbsfähig zu bleiben und ein Modell zu etablieren, dem die zukünftige Rechenzentrumsplanung folgen wird.
Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















