NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Nach mehr als zehn Jahren verschaffen Googles hauseigene Chips dem Unternehmen einen subtilen Vorsprung im Bereich KI

VonJai HamidJai Hamid
Lesezeit: 4 Minuten
Nach mehr als zehn Jahren verschaffen Googles hauseigene Chips dem Unternehmen einen subtilen Vorsprung im Bereich KI
  • Google hat seinen neuen Ironwood TPU vorgestellt, seinen leistungsstärksten hauseigenen KI-Chip, der jetzt in großem Umfang eingesetzt wird.
  • Anthropic plant den Einsatz von bis zu 1 Million TPUs, unterstützt durch einen milliardenschweren Expansionsvertrag mit Google Cloud.
  • Mit dem Projekt Suncatcher treibt das Unternehmen die Entwicklung von KI-Rechentechnologien über die Erde hinaus voran und plant, bis 2027 mit TPUs ausgestattete Satelliten zu starten.

Google hat über ein Jahrzehnt lang im Stillen die Technologie entwickelt, die dem Unternehmen heute hilft, im KI-Wettkampf weit über seine Verhältnisse hinaus erfolgreich zu sein.

Während Nvidia an der Spitze der Nahrungskette steht und seine GPUs an so gut wie jedes große Technologieunternehmen der Welt verkauft, war Google damit beschäftigt, seine eigenen Waffen zu entwickeln; Chips, die es nie verkaufen wollte, sondern stattdessen verwendet, um alles hinter seinem KI-Stack anzutreiben.

Und jetzt, da die Nachfrage nach Rechenleistung so hoch ist wie nie zuvor, zeigt das hauseigene Silizium endlich seinen Wert.

Am Donnerstag bestätigte Google, dass Ironwood, die neueste Generation seiner Tensor Processing Unit (TPU), in den kommenden Wochen verfügbar sein wird. Es handelt sich um den Chip der siebten Generation, der für alle Aufgaben – vom Training riesiger Modelle bis hin zum Betrieb von KI-Agenten und Chatbots in Echtzeit – entwickelt wurde.

Laut Google ist Ironwood mehr als viermal schneller als der vorherige TPU-Prozessor. Ein Kunde, Anthropic, plant, bis zu einer Million dieser Chips in seinem Claude-Modell einzusetzen.

Google baut, die Konkurrenz zieht nach

Obwohl Google weiterhin Nvidia-GPUs aufstockt, verlässt sich das Unternehmen nicht einfach auf Chips anderer Hersteller. TPUs werden seit über zehn Jahren entwickelt und sind seit 2018 erstmals für Cloud-Kunden verfügbar.

Ursprünglich nur für interne Workloads verwendet, sind sie heute ein zentraler Bestandteil der öffentlichen Cloud-KI-Infrastruktur von Google.

Analystin Stacy Rasgon von Bernstein sagte: „Von den ASIC-Herstellern ist Google der einzige, der diese Technologie wirklich in großem Umfang einsetzt.“

Aktuell verkauft Google keine TPUs als physische Hardware. Stattdessen mieten Kunden den Zugriff über Google Cloud, das sich zu einer der wichtigsten Einnahmequellen des Unternehmens entwickelt hat.

Alphabet meldete im letzten Quartal einen Cloud-Umsatz von 15,15 Milliarden US-Dollar, ein Plus von 34 % gegenüber dem Vorjahr. Sundar Pichai, CEO des Unternehmens, erklärte gegenüber Investoren: „Wir verzeichnen eine erhebliche Nachfrage nach unseren KI-Infrastrukturprodukten, darunter TPU- und GPU-basierte Lösungen.“

Deals, Satelliten und Weltraumchips

Angesichts des zunehmenden Drucks auf die Tech-Branche, Zugang zu Rechenkapazitäten zu erhalten, schließt Google gigantische Partnerschaften ab. Letzten Monat erweiterte das Unternehmen seine Partnerschaft mit Anthropic in einem Deal, der Berichten zufolge einen Wert von mehreren zehn Milliarden Dollar hat.

Durch diese Vereinbarung erhält Anthropic bis 2026 Zugang zu mehr als einem Gigawatt KI-Rechenkapazität.

Google hat bisher 3 Milliarden US-Dollar in Anthropic investiert. Obwohl Amazon weiterhin der wichtigste Cloud-Partner des Unternehmens ist, stellt Google nun die Hauptinfrastruktur für zukünftige Claude-Modelle bereit. Mike Krieger, Chief Product Officer von Anthropic, sagte:

„Die Nachfrage nach unseren Modellen ist so groß, dass wir meiner Meinung nach nur mit dieser Multi-Chip-Strategie in der Lage gewesen wären, so viele Kunden in diesem Jahr zu bedienen.“

Diese Strategie umfasst TPUs, Trainium und Nvidia-GPUs und ist auf Leistung, Kosten und Datensicherung ausgelegt. Krieger fügte hinzu, sein Team habe im Vorfeld Vorarbeiten geleistet, um sicherzustellen, dass Claude auf allen gängigen Chiptypen reibungslos läuft.

„Ich habe gesehen, wie sich diese Investition auszahlt, jetzt, wo wir mit diesen riesigen Rechenzentren online gehen und die Kunden dort erreichen können, wo sie sind“, sagte er.

Zwei Monate vor dem Anthropic-Deal unterzeichnete Google einen sechsjährigen Cloud-tracmit Meta im Wert von. Das Unternehmen sicherte sich zudem Anteile am Geschäft von OpenAI, um sich von Microsoft zu diversifizieren. OpenAI bestätigte gegenüber Reuters, Google Cloud zu nutzen, dort aber keine GPUs einzusetzen.

Diese Woche stellte Google das neue Projekt Suncatcher vor, das den Start solarbetriebener Satelliten mit TPUs zum Ziel hat. Es soll ein System entstehen, das Solarenergie im Weltraum nutzt, um rechenintensive KI-Aufgaben zu bewältigen.

Das Unternehmen gab an, bis Anfang 2027 zwei Prototypen starten zu wollen und bezeichnete das Experiment als Möglichkeit, den Druck auf die Ressourcen der Erde zu minimieren und gleichzeitig die Vorbereitung auf groß angelegte Berechnungen im Orbit zu ermöglichen.

Geldflüsse, steigende Nachfrage, Nvidia beobachtet

Anat Ashkenazi, CFO von Alphabet, sagte, die Dynamik des Google-Eigentümers rühre von der massiven Nachfrage von Unternehmen nach seinem kompletten KI-Stack her, der sowohl TPUs als auch GPUs umfasst.

Alphabet meldet nun, dass es in den ersten neun Monaten des Jahres 2025 mehr Cloud-tracim Milliarden-Dollar-Bereich abgeschlossen hat als in den beiden Jahren zuvor zusammen.

Amazons Cloud-Sparte wuchs im letzten Quartal um 20 %. AWS-CEO Matt Garman erklärte: „Jeder Trainium-2-Chip, den wir heute in unseren Rechenzentren einsetzen, wird verkauft und genutzt.“ Er fügte hinzu, dass Trainium 3 noch größere Leistungs- und Energieeffizienzsteigerungen bringen werde.

Google setzt weiterhin alles auf eine Karte. Das Unternehmen erhöhte seine Investitionsausgabenprognose für 2025 von 85 Milliarden auf 93 Milliarden US-Dollar, und für 2026 sind sogar noch höhere Ausgaben geplant. Die Aktie legte im dritten Quartal um 38 % und im vierten Quartal um weitere 17 % zu – dertronAnstieg seit zwei Jahrzehnten.

Analysten von Mizuho hoben die Kosten- und Leistungsvorteile von TPUs hervor und merkten an, dass Google, obwohl diese ursprünglich für den internen Gebrauch entwickelt wurden, nun auch bei externen Kunden großen trac. Morgan Stanley erklärte in einem Bericht vom Juni ebenfalls, dass die zunehmende Vertrautheit von Entwicklern mit TPUs das Wachstum von Google Cloud erheblich ankurbeln könnte.

Und in einem Bericht vom September schrieben die Analysten von DA Davidson: „Wir sind weiterhin der Ansicht, dass Googles TPUs die beste Alternative zu Nvidia darstellen, wobei sich die Lücke zwischen den beiden in den letzten 9 bis 12 Monaten deutlich verringert hat.“

Sie erwähnten auch die zunehmend positive Stimmung unter den Entwicklern und schlugen vor, dass Google sogar damit beginnen könnte, TPU-Systeme direkt an KI-Labore zu verkaufen.

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.

Diesen Artikel teilen
MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS