Anthropic erklärte sich bereit, 1,5 Milliarden Dollar zur Beilegung eines bedeutenden Urheberrechtsstreits zu zahlen, nachdem Autoren behauptet hatten, das Unternehmen habe ohne Erlaubnis Raubkopien von Büchern verwendet, um seinen KI-Chatbot Claude zu trainieren.
Der vorgeschlagene Vergleich in einer Sammelklage stellt die höchste jemals gemeldete Entschädigungszahlung im Urheberrechtsbereich dar und ist der erste bedeutende Vergleich im Zusammenhang mit künstlicher Intelligenz. Sollte Richter William Alsup in San Francisco dem Vergleich zustimmen, würden Hunderttausende von Autoren Entschädigungen erhalten, und es würde ein neuer Standard für die Nutzung urheberrechtlich geschützten Materials durch KI-Unternehmen gesetzt.
Dies geschieht, nachdem ein US-Richter einer Gruppe von Autoren , gegen das KI-Unternehmen Anthropic zu klagen. Die Autoren werfen dem Unternehmen vor, ihre Bücher ohne ihre Zustimmung zum Training seines KI-Modells verwendet zu haben. Die Autoren, allesamt etablierte Fachleute, behaupten, Anthropic habe ihre urheberrechtlich geschützten Werke ohne Erlaubnis und ohne Entschädigung für das Training seines Chatbots Claude genutzt.
Sie argumentieren, das Unternehmen sei zu weit gegangen, indem es ihre Geschichten nutzte, um die KI menschlicher klingen zu lassen, und sogar ihren Schreibstil und ihre Ideen imitierte.
Autoren sichern Rekordauszahlung in Urheberrechtsstreit
Die Einigung in Höhe von 1,5 Milliarden US-Dollar umfasst rund 500.000 Raubkopien von Büchern, die das Unternehmen aus Online-Bibliotheken wie Library Genesis, Pirate Library Mirror und dem Books3-Datensatz heruntergeladen hat. Diese Online-Bibliotheken sind beliebte Quellen für unautorisierte digitale Buchkopien, die von Forschern und KI-Entwicklern für ihre Datensätze genutzt werden. Autoren, Verlage und Interessenverbände kritisieren diese Plattformen seit Langem, da sie den Urheberrechtsschutz untergraben.
Die Vereinbarung sieht vor, dass jeder Autor, dessen Buch Anthropic illegal als Trainingsdaten für seine KI verwendet hat, eine Entschädigung von etwa 3.000 US-Dollar erhält. Sollten weitere Untersuchungen zusätzliche Werke aufdecken, die das Unternehmen in seinen Datensatz aufgenommen hat, könnte die Gesamtsumme die anfänglichen 1,5 Milliarden US-Dollar deutlich übersteigen.
Der Fall Anthropic begann 2024, als die Autoren Andrea Bartz, Charles Graeber und Kirk Wallace Johnson das Unternehmen wegen unerlaubter Kopien ihrer Bücher verklagten. Später reichten Hunderttausende weitere Autoren Klage ein und warfen dem Unternehmen vor, ihre Werke zur Schulung seines Vorzeige-Chatbots Claude .
Die Autoren prangerten Anthropics Unkenntnis bei der rechtmäßigen Lizenzierung des Materials an, trotz seiner finanziellen Stärke, die sich in seinen mächtigen Investoren wie Amazon und Googles Mutterkonzern Alphabet widerspiegelt.
Richter William Alsup urteilte im Juni, dass die Verwendung urheberrechtlich geschützten Materials zum Trainieren von KI-Modellen als zulässige Nutzung gelten könne, sofern die Werke transformativ seien. Er stellte jedoch auch fest, dass Anthropic gegen das Urheberrecht verstoßen habe, indem das Unternehmen über 7 Millionen raubkopierte Bücher in einer Zentralbibliothek herunterlud und speicherte.
Das Urteil setzte das Unternehmen der Gefahr von Schadensersatzzahlungen aus, falls es wie geplant im Dezember zu einem Prozess kommen sollte, da Rechtsexperten warnten, dass Anthropic möglicherweise Hunderte von Milliarden Dollar zahlen müsse.
Anthropic entgeht einem Prozess, sieht sich aber weiterhin rechtlichen Risiken ausgesetzt
Die Vereinbarung über 1,5 Milliarden US-Dollar verpflichtet Anthropic, sämtliche Kopien der Raubkopien zu vernichten, um weitere Gewinne aus unautorisiertem Material zu verhindern. Experten zufolge schützt die Vereinbarung das Unternehmen jedoch nicht vor neuen Klagen. Autoren könnten weiterhin klagen, falls das Claude-System Ausgaben generiert, die urheberrechtlich geschützte Passagen wiedergeben oder ihre Werke verletzen.
Anthropic erklärte, die Vereinbarung beinhalte kein Schuldeingeständnis, sondern lediglich den Wunsch, ohne die Unsicherheit eines langwierigen Prozesses voranzukommen. Die stellvertretende Generalbevollmächtigte des Unternehmens, Aparna Sridhar, erläuterte, Anthropic sei weiterhin bestrebt, sichere, vertrauenswürdige und den menschlichen Fortschritt fördernde Produkte herzustellen. Das Unternehmen wolle sich auf die Entwicklung von Werkzeugen konzentrieren, die die Wissenschaft voranbringen und der Öffentlichkeit dienen, anstatt jahrelang in Rechtsstreitigkeiten verwickelt zu sein.
Andere KI-Unternehmen wie OpenAI, Microsoft und Meta sehen sich weiterhin mit Klagen konfrontiert, die nahezu identische dent aufwerfen. Ein Richter in San Francisco ließ kürzlich eine Klage gegen Meta zu und erklärte, die Verwendung urheberrechtlich geschützten Materials ohne Genehmigung sei „in vielen Fällen“ rechtswidrig.
Durch die Einigung blieb Anthropic die Möglichkeit erspart, den Streit vor den Obersten Gerichtshof der USA zu bringen, da dies massive Änderungen an den nationalen Gesetzen zur Anwendung des Fair Use auf künstliche Intelligenz zur Folge gehabt hätte.

