NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Cerebras peilt beim Börsengang einen Preis von 115 bis 125 US-Dollar pro Aktie an, nachdem Nvidia seine KI-Inferenzstrategie verlagert hat

VonNoor BazmiNoor Bazmi
3 Minuten gelesen,
Cerebras peilt beim Börsengang einen Preis von 115 bis 125 US-Dollar pro Aktie an, nachdem Nvidia seine KI-Inferenzstrategie verlagert hat
  • Cerebras startet am Montag seine Roadshow zum Börsengang mit dem Ziel, einen Preis von 115 bis 125 US-Dollar pro Aktie zu erzielen.
  • Die KI-Branche, die sich von der Ausbildung hin zur Inferenz verlagert, schafft Möglichkeiten für spezialisierte Chips.
  • Die wichtigsten Akteure setzen auf disaggregierte Schlussfolgerungen.

Cerebras Systems wird am Montag mit der Präsentation seiner Aktien bei Investoren beginnen und plant, die Aktien zu einem Preis zwischen 115 und 125 US-Dollar pro Stück zu verkaufen, wie eine mit den Plänen vertraute Person gegenüber Reuters erklärte.

Der Hersteller von Chips für künstliche Intelligenz unternimmt einen zweiten Versuch, an die Börse zu gehen. Der erste Versuch scheiterte im Oktober letzten Jahres.

Cerebras meldetetronverbesserte Finanzergebnisse. Das Unternehmen erzielte einen Umsatz von 510 Millionen US-Dollar, ein deutlicher Anstieg gegenüber 290,3 Millionen US-Dollar im Vorjahr. Zudem erwirtschaftete es einen Gewinn von 1,38 US-Dollar je Aktie, verglichen mit einem Verlust von 9,90 US-Dollar je Aktie im Vorjahr.

Morgan Stanley, Citigroup, Barclays und UBS wickeln den Aktienverkauf ab.

Die Industrie vollzieht einen Wandel

Cerebras' Strategie ist kein Zufall. Die KI-Branche vollzieht einen Wandel: von der Entwicklung neuer KI-Modelle hin zu deren praktischer Anwendung. Dieser Wandel bietet kleinen Unternehmen, die mit Nvidias (NASDAQ: NVDA) Monopol konkurrieren, eine einmalige Chance. Wie Cryptopolitan, ist selbst nicht überzeugt von Nvidias Inferenzhardware

Dies liegt daran, dass die Ausführung von KI-Modellen, die sogenannte Inferenz, andere Fähigkeiten erfordert als deren Training. Dadurch eröffnen sich Chancen für spezialisierte Chiphersteller, sich im Markt zu positionieren. Die Verarbeitung großer Datenmengen erfordert ein anderes Verhältnis von Rechenleistung, Speicher und Datenübertragungsgeschwindigkeit als der Betrieb eines KI-Chatbots oder Programmierassistenten.

Diese Vielfalt an Anforderungen hat den Markt für Inferenzsysteme diversifiziert. Manche Aufgaben lassen sich besser mit herkömmlichen Grafikchips bewältigen, während andere fortschrittlichere Hardware erfordern.

Nvidias Übernahme von Groq im vergangenen Dezember für 20 Milliarden US-Dollar verdeutlicht diese Entwicklung. Groq entwickelte Chips mit schnellem SRAM-Speicher, die KI-Reaktionen schneller verarbeiten konnten als herkömmliche Grafikchips. Das Unternehmen hatte jedoch Schwierigkeiten, die Produktion auszuweiten, da die Chips nur über begrenzte Rechenleistung verfügten und auf veralteter Technologie basierten.

Nvidia löste dieses Problem durch Aufteilung der Aufgaben. Für den rechenintensiven Teil der KI-Antwortgenerierung, das sogenannte Prefill, verwendet das Unternehmen seine regulären Grafikchips, während für den schnelleren Dekodierungsschritt, der weniger Rechenleistung benötigt, aber einen schnellen Datenzugriff erfordert, die Chips von Groq zum Einsatz kommen.

Auch andere große Unternehmen verfolgen ähnliche Ansätze. Amazon Web Services kündigte kurz nach einer wichtigen Technologiekonferenz sein eigenes Split-System an. Es kombiniert seine kundenspezifischen Trainium-Chips für die Vorbefüllung mit den wafergroßen Chips von Cerebras für die Dekodierung.

Auch Intel schloss sich dem an und enthüllte Pläne, Grafikchips mit Prozessoren des Startups SambaNova zu kombinieren. Die Grafikchips übernehmen das Vorbefüllen, während die Chips von SambaNova die Dekodierung durchführen.

Die meisten kleineren Chiphersteller haben mit Dekodierungsaufgaben Erfolge erzielt. SRAM-Speicher können zwar nicht viele Informationen speichern, sind aber extrem schnell. Mit genügend Chips oder einem sehr großen Chip, wie ihn beispielsweise Cerebras anbietet, eignen sich diese Systeme hervorragend für Dekodierungsaufgaben. Doch die Unternehmen ruhen sich nicht darauf aus.

Neue Technologien stellen den Split-Chip-Ansatz in Frage

Das Startup Lumai gab diese Woche bekannt, einen Chip entwickelt zu haben, der für die mathematischen Operationen, die dem KI-System zugrunde liegen, Licht anstelle von Elektrizität nutzt. Dieser Ansatz verbraucht deutlich weniger Energie als herkömmliche Chips.

Das Unternehmen erwartet, dass seine kommenden Iris Tetra-Systeme bis 2029 eine KI-Leistung im ExaOPS-Bereich bei einem Stromverbrauch von nur 10 Kilowatt erreichen werden.

Die Chips kombinieren lichtbasierte und elektrische Komponenten, wobei die Lichtverarbeitung den Großteil der Arbeit während der Inferenz übernimmt. Lumai plant, diese Chips zunächst als eigenständigen Ersatz für Grafikchips in Stapelverarbeitungsaufträgen einzusetzen. Später sollen sie auch für das Vorfüllen von Daten verwendet werden.

Nicht jeder hält es für sinnvoll, die Arbeit auf verschiedene Chips aufzuteilen. TensorBorrent hat diese Woche seine Galaxy Blackhole-Systeme vorgestellt, und CEO Jim Keller kritisierte diesen Ansatz.

„Jedes Unternehmen der Branche arbeitet in Kooperationen an immer neuen Beschleuniger-Architekturen. CPUs führen Code aus. GPUs beschleunigen CPUs. TPUs beschleunigen GPUs. LPUs beschleunigen TPUs. Und so weiter. Das führt zu komplexen Lösungen, die wahrscheinlich nicht mit Änderungen an KI-Modellen und -Anwendungen kompatibel sein werden. Wir bei Tenstromrent waren der Meinung, dass ein allgemeinerer und einfacherer Ansatz funktionieren würde“, sagte Keller.

Ihre Bank nutzt Ihr Geld. Sie bekommen nur die Krümel. Sehen Sie sich unser kostenloses Video an, wie Sie Ihre eigene Bank werden können.

Diesen Artikel teilen
MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS