Anthropic räumte am Donnerstag ein, dass ein fehlerhafter Verweis in einem Gerichtsdokument auf den eigenen KI-Assistenten Claude zurückzuführen sei, und bezeichnete das Versehen als „peinlichen und unbeabsichtigten Fehler“
Universal, Concord und ABKCO verklagten Anthropic letztes Jahr mit der Begründung, das in San Francisco ansässige Unternehmen habe ihre Songtexte vollständig kopiert, um Claude damit zu trainieren. Der Fall ist einer von mehreren aufsehenerregenden Fällen, in denen es um die Frage geht, ob Technologieunternehmen urheberrechtlich geschützte Werke ohne Genehmigung zum Training von KI-Systemen verwenden dürfen.
Reuters berichtete , dass Rechtsanwalt Matt Oppenheim, der Universal Music Group, ABKCO und Concord vertritt, während einer Anhörung am Dienstag vor Gericht erklärte, das Zitat des Chatbots sei eine „völlig erfundene“ Aussage, um die Argumentation von Anthropic zu stützen.
Die US-Magistratsrichterin Susan van Keulen bezeichnete die jüngste Anschuldigung als „eine sehr ernste und schwerwiegende Angelegenheit“ und betonte, dass „ein himmelweiter Unterschied zwischen einer übersehenen Vorladung und einer durch KI erzeugten Halluzination“ bestehe. Die Richterin ordnete an, dass die Parteien den Sachverhalt in ihren schriftlichen Stellungnahmen umfassend darlegen.
Anthropische Anwälte sagen, Claude AI habe beim Formatieren einen Fehler gemacht
In einer schriftlichen Stellungnahme am Donnerstag erklärte die Anwältin von Anthropic, Ivana Dukanovic, die Referenz sei echt, aber bei der Formatierung im juristischen Stil durch Claude fehlerhaft behandelt worden. Sie erläuterte, dass die vom Bot erzeugten falschen Band- und Seitenzahlen bei einer manuellen Überprüfung korrigiert worden seien, Fehler im Text jedoch unbemerkt durchgerutscht seien.
„Obwohl der korrekte Publikationstitel, das Publikationsjahr und der Link zur angegebenen Quelle angegeben wurden, enthielt das zurückgegebene Zitat einen ungenauen Titel und falsche Autoren“, schrieb Dukanovic und fügte hinzu, dass es sich bei dem Fehler nicht um eine „Fälschung von Autorität“ handele
Anthropic entschuldigte sich für die Verwirrung und erklärte, der Fehler sei weder absichtlich noch ein Versuch gewesen, das Gericht irrezuführen.
KI-Fehler sorgen immer wieder für Probleme vor Gericht
Mehrere Anwälte sahen sich in letzter Zeit Kritik oder Sanktionen ausgesetzt, weil sie sich auf KI-generierte, sich als falsch herausstellende Informationen stützten. In ihrer Klageschrift erklärte Dukanovic, die Anwaltskanzlei Latham & Watkins, die Anthropic vertritt, habe „mehrere zusätzliche Prüfinstanzen eingeführt, um sicherzustellen, dass dies nicht wieder vorkommt“
Derdent reiht sich ein in eine wachsende Liste von Gerichtsfehlern, die mit generativer KI in Verbindung gebracht werden.
Letzte Woche rügte ein kalifornischer Richter zwei Anwaltskanzleien, weil sie nicht angegeben hatten, dass sie KI zur Erstellung eines ergänzenden Schriftsatzes verwendet hatten, der mit „gefälschten“ Verweisen gespickt war, die „nicht existierten“. Im Dezember gab ein Forscher im Bereich Desinformation zu, dass ChatGPT in einem von ihm verfassten Schriftsatz Zitate erfunden hatte.

