Anthropic befindet sich auf dem Vormarsch. Das KI-Unternehmen, das von Amazon unterstützt und von ehemaligen OpenAI-Managern geleitet wird, bestätigte am Dienstag, dass es 13 Milliarden Dollar an Finanzmitteln eingesammelt hat, wodurch seine Bewertung auf 183 Milliarden Dollar steigt.
Das ist das Dreifache des Wertes vom März und zählt damit zu den schnellsten Wertsteigerungen, die das Silicon Valley im Jahr 2025 bisher erlebt hat.
Die Finanzierungsrunde wurde von Iconiq, Fidelity Management & Research und Lightspeed Venture Partners angeführt. Auch Branchengrößen wie Altimeter, General Catalyst und Coatue beteiligten sich. Krishna Rao, Finanzchef von Anthropic, erklärte, die Finanzierungsrunde zeige, wie eng das Unternehmen mit seinen Investoren zusammenarbeite.
„Diese Finanzierung beweist das außerordentliche Vertrauen der Investoren in unsere finanzielle Leistungsfähigkeit und die Stärke ihrer Zusammenarbeit mit uns, um unserdentWachstum weiter voranzutreiben“, sagte Krishna.
Claudes Start entfacht einen neuen Wachstumsschub
Seit der Ankündigung von Claude im März 2023 ist der Unternehmenswert von Anthropic rasant gestiegen. Das Unternehmen gibt nun an, über 300.000 Geschäftskunden zu haben und im August einen Umsatz von 5 Milliarden US-Dollar erzielt zu haben – im Vergleich zu nur 1 Milliarde US-Dollar zu Jahresbeginn. Das entspricht einer Verfünffachung in weniger als zwölf Monaten.
Anthropic wurde von ehemaligen OpenAI-Mitarbeitern, darunter auch CEO Dario Amodei, entwickelt. Das ist von Bedeutung, denn der Wettbewerb zwischen den beiden Unternehmen verschärft sich rasant. OpenAI sorgt seit dem Launch von ChatGPT Ende 2022 immer wieder für Schlagzeilen. Laut CNBC plant das Unternehmen einen Börsengang, der es mit 500 Milliarden US-Dollar bewerten würde .
Im März sicherte sich OpenAI 40 Milliarden US-Dollar bei einer Bewertung von 300 Milliarden US-Dollar – die höchste Finanzierungssumme, die jemals für ein privates Technologieunternehmen erzielt wurde. Erst letzten Monat kamen weitere 8,3 Milliarden US-Dollar aus derselben Finanzierungsrunde hinzu. Gleichzeitig veröffentlichte OpenAI GPT-5, das laut OpenAI schneller und „deutlich nützlicher“ als frühere Modelle sein soll. Doch nicht alle sind zufrieden. Einige Nutzer bemängelten das Fehlen bestimmter Funktionen von GPT-4o. „Wir haben definitiv unterschätzt, wie wichtig den Nutzern einige der Funktionen von GPT-4o sind, auch wenn GPT-5 in den meisten Bereichen besser abschneidet“, sagte OpenAI-CEO Sam Altman auf X.
Anthropic zufolge werden die neuen Mittel die Forschung zur KI-Sicherheit unterstützen, die Skalierung zur Deckung der Nachfrage großer Unternehmen ermöglichen und die internationale Expansion vorantreiben. Dies sind die drei Prioritäten.
Anthropic ändert seine Datenrichtlinien und setzt den Nutzern eine Frist
Eine weitere große Veränderung vollzieht sich hinter den Kulissen. Anthropologie ändert grundlegend die Art und Weise, wie Nutzerdaten erfasst und gespeichert werden. Nutzer von Claude haben bis zum 28. September Zeit zu entscheiden, ob ihre Gespräche zum Training der KI-Modelle des Unternehmens verwendet werden dürfen. Dies stellt eine vollständige Abkehr von der bisherigen Vorgehensweise dar.
Vor diesem Update wurde Claude-Nutzern mitgeteilt, dass ihre Daten nach 30 Tagen gelöscht würden – es sei denn, sie verstießen gegen eine Regel oder mussten aus rechtlichen Gründen länger aufbewahrt werden. In diesem Fall konnten sie bis zu zwei Jahre gespeichert bleiben. Das gehört nun der Vergangenheit an. Sofern Nutzer nicht widersprechen, speichert Anthropic ihre Konversationen und Programmiersitzungen fünf Jahre lang und verwendet diese Informationen, um zukünftige Claude-Modelle zu trainieren.
Die Richtlinie betrifft alle Einzelnutzer von Claude Free, Claude Pro, Claude Max und Claude Code. Geschäftskunden, die Claude Gov, Claude for Work oder Claude for Education nutzen oder über die API zugreifen, sind nicht betroffen. Dies entspricht dem Vorgehen von OpenAI, das seine Unternehmenskunden schützt, indem deren Daten ebenfalls nicht für das Training verwendet werden.
Anthropic hat außer einem Blogbeitrag keine ausführliche Erklärung abgegeben. Das Unternehmen betont jedoch, dass es bei der neuen Richtlinie um „Nutzerwahl“ geht. Wenn Nutzer nicht widersprechen, tragen sie zur Verbesserung der KI bei. Laut Anthropic soll dies Claude in Bereichen wie Programmierung und logischem Denken verbessern und dazu beitragen, dass harmlose Nachrichten seltener fälschlicherweise als schädlich eingestuft werden.
Der wahre Grund ist jedoch klar. Jedes KI-Unternehmen benötigt derzeit riesige Mengen an realen Daten. Claudes Chats liefern genau diese. Das Training großer Modelle ist ohne Millionen qualitativ hochwertiger Konversationen unmöglich. Dadurch erhält Anthropic genau das, was es braucht, um mit OpenAI und Google zu konkurrieren: Daten in großem Umfang, direkt von den Nutzern.

