In einer wegweisenden Entscheidung, die die Zukunft der künstlichen Intelligenz und des Urheberrechts neu gestalten könnte, urteilte ein US-Bundesrichter, dass Anthropic nicht gegen das Gesetz verstoßen habe, indem es urheberrechtlich geschützte Bücher zum Trainieren seiner Systeme verwendete.
Doch Anthropic – das KI-Unternehmen hinter dem Chatbot Claude – ist noch nicht ganz aus dem Schneider; es drohen immer noch empfindliche Strafen für den Umgang mit diesen Büchern.
Aber auch Anthropic überschritt rechtliche Grenzen
Das Urteil erging am späten Montag von US-Bezirksrichter William Alsup in San Francisco, der feststellte, dass das Training des KI-Modells von Anthropic unter Verwendung der Werke der Autoren Andrea Bartz, Charles Graeber und Kirk Wallace Johnson als zulässige Nutzung gilt.
Diese Doktrin, die eine eingeschränkte Nutzung urheberrechtlich geschützter Inhalte ohne Genehmigung erlaubt, spielte eine zentrale Rolle in Alsups Urteil, das zu den ersten gehörte, die sich mit dem Thema „Fair Use“ im Zeitalter der generativen KI befassten.
„Wie jeder Leser, der Schriftsteller werden möchte, sind auch die KI-Sprachmodelle von Anthropic nicht darauf trainiert, Werke zu kopieren oder zu ersetzen, sondern etwas völlig Neues zu schaffen“, schrieb Alsup.
Obwohl Alsup Anthropic hinsichtlich der Verwendung der Bücher für das KI-Training Recht gab, stellte er klar, dass das Unternehmen die rechtlichen Grenzen überschritten habe, als es mehr als 7 Millionen raubkopierte Titel in einer von ihm so genannten „Zentralbibliothek“ speicherte. Dies, so der Richter, falle nicht unter die zulässige Nutzung.
Für Dezember ist ein Prozess angesetzt, um festzustellen, ob und in welcher Höhe Anthropic den Autoren Schadensersatz schuldet. Nach US-amerikanischem Urheberrecht können Schadensersatzansprüche wegen vorsätzlicher Urheberrechtsverletzung bis zu 150.000 US-Dollar pro Werk betragen.
Anthropic hat sich noch nicht öffentlich zu dem Urteil geäußert, aber das Ergebnis teilt den Fall in zwei Teile: Der Schulungsaspekt ist geschützt, der Aufbewahrungsaspekt jedoch nicht.
Könnte der Fall Anthropic einen Sieg für die KI-Branche bedeuten?
Der Fall ist Teil einer breiteren Klagewelle von Autoren und Medienunternehmen gegen Firmen wie OpenAI, Meta und Microsoft wegen ihrer Vorgehensweise beim Aufbau ihrer KI-Systeme. Im Kern geht es um die Frage: Sollten diese Unternehmen urheberrechtlich geschütztes Material, oft ohne Zustimmung der Urheber, verwenden dürfen, um Werkzeuge zu entwickeln, die in gewisser Weise mit den Werken der ursprünglichen Entwickler konkurrieren?
Alsups Urteil stärkt die Position von KI-Entwicklern, von denen viele argumentieren, dass ihre Modelle neue, transformative Inhalte produzieren und nicht gezwungen werden sollten, jeden Urheberrechtsinhaber zu bezahlen, dessen Werk dabei verwendet wurde.
„Wie jeder Leser, der Schriftsteller werden möchte, wurden auch die Modelle von Anthropic anhand dieser Bücher geschult – nicht um sie zu kopieren, sondern um etwas völlig Neues zu schaffen.“
Alsup.
Anthropic hatte vor Gericht erklärt, das Kopieren der Bücher sei unerlässlich, um Schreibstile zu studieren und nicht urheberrechtlich geschützte Elemente wie Struktur und Tonfall zutrac, um der KI bei der Erstellung neuer Inhalte zu helfen.
Das Unternehmen argumentierte, dass diese Art des Lernens die menschliche Kreativität fördere, etwas, das das Urheberrecht eigentlich unterstützen solle.
Alsup kritisierte Anthropic jedoch auch dafür, dass das Unternehmen raubkopierte digitale Kopien der Bücher sammelte. Während das Unternehmen darauf bestanden hatte, die Quelle des Materials spiele keine Rolle, widersprach Alsup demtron.
In seiner Urteilsbegründung sagte er: „Diese Anordnung lässt Zweifel daran aufkommen, ob ein angeklagter Rechtsverletzer jemals seiner Beweislast nachkommen kann, zu erklären, warum das Herunterladen von Quellkopien von Piratenseiten, die er hätte kaufen oder auf andere rechtmäßige Weise beziehen können, für eine spätere faire Nutzung selbst vernünftigerweise notwendig war.“
Im Wesentlichen mag zwar der Endzweck geschützt sein, nicht aber die Art und Weise, wie Anthropic an das Material gelangte. Diese Unterscheidung könnte die zukünftige Datenerhebung von KI-Unternehmen Trainingsdaten und potenziell zu einer ethischeren oder zumindest legalen Datenbeschaffung beitragen.
Angesichts weiterer anstehender Urheberrechtsklagen dent . Im Dezember wird nun entschieden, ob Anthropics Vorgehen bei der Speicherung von Inhalten finanzielle Strafen rechtfertigt und, falls ja, wie hoch diese ausfallen sollten.

