Anthropic hat OpenAI am Dienstag den Zugriff auf seine API für Anthropic-Modelle untersagt. Dieser Schritt erfolgte, nachdem Anthropic festgestellt hatte, dass OpenAI gegen die Nutzungsbedingungen verstoßen hatte, indem es unzulässigerweise auf Anthropics Tools zugegriffen hatte.
Christopher Nulty, ein Sprecher von Anthropic, erklärte gegenüber WIRED : „Claude Code hat sich weltweit zur ersten Wahl für Programmierer entwickelt, daher war es keine Überraschung zu erfahren, dass auch die technischen Mitarbeiter von OpenAI vor dem Start von GPT-5 unsere Programmierwerkzeuge nutzten. Dies stellt leider einen direkten Verstoß gegen unsere Nutzungsbedingungen dar.“
Gemäß den Geschäftsbedingungen von Anthropic ist es Kunden nicht gestattet, ein anderes Produkt oder eine andere Dienstleistung zu entwickeln, eigene KI-Modelle unter Verwendung der Plattform von Anthropic zu erstellen oder zu versuchen, deren Technologie zu analysieren oder zu replizieren .
Diese Anpassung der Verfügbarkeit von Claude fällt zeitlich mit den internen Vorbereitungen von OpenAI für GPT-5 , dem kommenden Modell, das für seine verbesserten Codierungsfähigkeiten gelobt wird.
OpenAI soll angeblich benutzerdefinierte APIs für den Zugriff auf Claude verwendet haben
Insidern zufolge integrierte OpenAI Claude über eigens entwickelte APIs in seine proprietäre Toolchain anstatt über das übliche Chatportal. Dadurch konnte OpenAI Claudes Leistung bei Programmier- und Schreibaufgaben bewerten und seine Antworten auf sicherheitsrelevante Fragen zu Themen wie CSAM, Selbstverletzung und diffamierenden Inhalten auswerten.
Die Ergebnisse wurden anschließend genutzt, um Claude mit den hauseigenen Modellen von OpenAI zu vergleichen und die Systeme von OpenAI entsprechend zu optimieren.
Als Reaktion darauf erklärte Hannah Wong, Kommunikationschefin von OpenAI: „Es ist branchenüblich, andere KI-Systeme zu evaluieren, um Fortschritte zu messen und die Sicherheit zu verbessern. Wir respektieren zwar die Entscheidung von Anthropic, unseren API-Zugang zu sperren, sind aber enttäuscht, da unsere API ihnen weiterhin zur Verfügung steht.“
Nulty erwähnte außerdem, dass die Gewährung von API-Zugriff für Zwecke wie Benchmarking und Sicherheitsüberprüfungen weiterhin gängige Branchenpraxis sei. Das Unternehmen hat nicht erläutert, wie sich die aktuelle Einschränkung des Claude-Zugriffs auf die laufenden Evaluierungen von OpenAI auswirken könnte.
API-Beschränkungen werden im Technologiesektor seit langem als Druckmittel eingesetzt.
Facebook hat beispielsweise zuvor Vine (im Besitz von Twitter) gesperrt, und erst kürzlich hat Salesforce Beschränkungen für die Integrationen des Konkurrenten Slack eingeführt.
Anthropic ergriff angesichts von Spekulationen über eine Übernahme durch OpenAI eine vergleichbare Maßnahme gegen das KI-Software-Startup Windsurf , doch der Deal kam nicht zustande. Jared Kaplan, Chief Science Officer von Anthropic, erklärte gegenüber TechCrunch: „Ich fände es seltsam, wenn wir Claude an OpenAI verkaufen würden.“
Anthropic wird wöchentliche Nutzungsobergrenzen für den Claude-Code durchsetzen
Anthropic hat kürzlich Pläne bekannt gegeben, wöchentliche Obergrenzen für Claude Code einzuführen, um den kontinuierlichen Hintergrundverbrauch der Nutzer zu reduzieren.
Das Unternehmen teilte in einer E-Mail und auf X mit, dass die neuen Beschränkungen am 28. August in Kraft treten werden.
Diese Einschränkungen betreffen Nutzer des Pro-Tarifs für 20 $ sowie der Max-Tarife für 100 $ und 200 $. Die bestehenden Nutzungslimits von fünf Stunden bleiben unverändert.
Darüber hinaus beinhaltet das Update zwei separate wöchentliche Kontingente: eine allgemeine Nutzungsobergrenze und ein modellspezifisches Kontingent für Claude Opus 4. Abonnenten der Max-Stufe haben die Möglichkeit, zusätzliche Kapazität zum Standard-API-Preis von Anthropic zu erwerben, sobald sie die wöchentlichen Schwellenwerte überschreiten.
Diese Anpassung baut auf einer zurückhaltenden Einführung von Nutzungsobergrenzen für Claude Code auf, die bereits im Frühsommer dieses Jahres umgesetzt wurde.
Claude Code ist bei Entwicklern beliebt, doch Anthropic konnte die Nachfrage nicht decken. Der Dienst verzeichnete im letzten Monat sieben größere oder teilweise Ausfälle, die wahrscheinlich durch die intensive Nutzung einer kleinen Nutzergruppe verursacht wurden.

