OpenAI gibt keine 100 Milliarden Dollar für den Kauf von Chips aus, sondern cash für deren Leasing. Der gesamte Vertrag mit Nvidia basiert darauf, die Kosten über einen längeren Zeitraum zu verteilen und nicht Milliarden im Voraus zu investieren. Das KI-Unternehmen möchte Zugang zu Nvidias High-End-GPUs, schließt aber anstatt diese direkt zu kaufen, langfristige Leasingverträge ab.
So fließt das Geld nach und nach, und das Risiko verlagert sich auf Nvidia. Die Vereinbarung ist einfach: Mit jedem neuen KI-Rechenzentrum, das in Betrieb geht, erhält OpenAI Zugriff auf weitere GPUs. Das erste Zentrum, das in Abilene, Texas, gebaut wird, soll voraussichtlich in der zweiten Jahreshälfte 2026 online gehen.
Dann beginnt das cash zu fließen. Der genaue Preis der einzelnen Rechenzentren ist noch unbekannt, aber OpenAI erwirbt die Hardware nicht, sondern mietet die Rechenleistung. Jede eingesetzte GPU wird geleast, die Zahlungen verteilen sich auf die Nutzungsdauer von etwa fünf Jahren.
OpenAI verzögert die Kosten, indem es Nvidia-Chips least statt sie zu kaufen
Jensen Huang, der CEO von Nvidia, bezeichnete den Deal als „monumental“. Er erklärte, der Bau eines einzigen Gigawatt-KI-Rechenzentrums könne etwa 50 Milliarden US-Dollar kosten. Davon gingen rund 35 Milliarden US-Dollar direkt an Nvidia für die Chips. Der Rest sei für alle anderen Kosten bestimmt. OpenAI zahle diese Summe jedoch nicht im Voraus. Durch das Leasing der GPUs vermeidet das Unternehmen einen sofortigen finanziellen Verlust.
OpenAI erhält in Kürze erste 10 Milliarden US-Dollar aus dem Deal. Dieses Geld dient dem Start der ersten Implementierungsphase. Ein Teil der Mittel wird zwar für Personal, Betrieb und andere Ausgaben verwendet, der Großteil fließt jedoch direkt in die Rechenleistung, genauer gesagt in Nvidias Prozessoren. Diese GPUs sind die Motoren des KI-Trainings und treiben Modelle wie ChatGPT und alle darauf basierenden Anwendungen an.
Sarah Friar, Finanzchefin von OpenAI, erklärte in Abilene, dass der Plan ohne Partner nicht möglich wäre. Sie nannte Oracle, das das Rechenzentrum in Abilene mietet, und Nvidia , das im Gegenzug für langfristige Zahlungen Eigenkapital einbringt.
„Unternehmen wie Oracle setzen ihre Finanzkraft ein, um diese unglaublichen Rechenzentren zu errichten, die Sie hinter uns sehen“, sagte Sarah. „Nvidia bringt Eigenkapital ein, um den Start zu beschleunigen, aber vor allem werden sie für all diese Chips bezahlt, sobald diese im Einsatz sind.“
Die Schuldenverhandlungen beginnen, während Nvidia-Chips den Großteil der cash von OpenAI verschlingen
OpenAI ist nicht profitabel. Das Unternehmen erwirtschaftet keinen positiven cash und verfügt nicht über ein Investment-Grade-Rating. Daher ist die Finanzierung von Rechenzentren über Eigenkapital kostspielig. Führungskräfte des Unternehmens gaben an, sich auf die Aufnahme von Schulden vorzubereiten, um die restliche Expansion zu finanzieren. Dank der Leasingstruktur mit Nvidia sind Banken nun eher bereit, Kredite zu vergeben. Die Konditionen sind günstiger, wenn ein Unternehmen nicht versucht, alles direkt zu kaufen.
Sarah sagte, der Rechenleistungsmangel sei das größere Problem. „Worauf wir uns heute alle konzentrieren sollten, ist die Tatsache, dass nicht genügend Rechenleistung vorhanden ist“, sagte sie. „Mit dem Wachstum des Unternehmens werden wir die zukünftigen Anforderungen – mehr Rechenleistung, mehr Umsatz – problemlos erfüllen können.“
Doch nicht alle sind von dieser Struktur begeistert. Nvidias Marktkapitalisierung von 4,3 Billionen US-Dollar basiert auf dem Verkauf von Chips an OpenAI, Google, Meta, Microsoft und Amazon. Gleichzeitig ist OpenAIs private Bewertung von 500 Milliarden US-Dollar nur dank cash von Microsoft und anderen möglich. Dieses Geld bleibt nicht ungenutzt, sondern fließt direkt zurück an Nvidia.
Jamie Zakalik, Analyst bei Neuberger Berman, erklärte gegenüber CNBC, der Deal zeige, dass OpenAI Kapital aufnehme und es direkt in dasselbe Unternehmen investiere, das die Technologie bereitstelle. „Das bläht die Gewinne und Zahlen aller Beteiligten auf“, sagte Zakalik. „Aber es schafft nichts wirklich Neues.“
Auf diese Bedenken angesprochen, reagierte OpenAI-CEO Sam Altman ohne Widerspruch. „Wir müssen weiterhin Dienstleistungen an Verbraucher und Unternehmen verkaufen und diese großartigen neuen Produkte entwickeln, für die die Leute viel Geld bezahlen“, sagte Sam. „Solange das so weitergeht, finanzieren wir damit viele dieser Rechenzentren und Chips.“

