OpenAI scheitert beim Schutz der ChatGPT-Protokolle in einem Urheberrechtsstreit

- OpenAI muss 20 Millionen anonymisierte ChatGPT-Protokolle zur Verfügung stellen, um festzustellen, ob urheberrechtlich geschützte Inhalte der New York Times und anderer Medien kopiert wurden.
- Das Unternehmen muss alle personenbezogenen Daten entfernen, bevor es die Protokolle freigibt; OpenAI argumentiert jedoch, dass dies das Vertrauen der Nutzer beeinträchtigen könnte.
- Der Fall wirft Fragen zur KI-Ausbildung, zu Urheberrechtsbestimmungen und zur Bezahlung von Journalisten für ihre Arbeit auf.
OpenAI muss im Urheberrechtsstreit mit der New York Times (NYT) und anderen 20 Millionen anonymisierte ChatGPT-Konversationsprotokolle herausgeben. Laut US-Magistratsrichterin Ona Wang sind die Chatprotokolle ein wichtiges Beweismittel in den Ermittlungen, ob ChatGPT urheberrechtlich geschützte Nachrichteninhalte ohne Genehmigung verbreitet.
Die Anordnung basiert auf einem Antrag auf Akteneinsicht im Rahmen der Klage, in der die New York Times und andere Medienorganisationen behaupten, ChatGPT – und damit indirekt die zugrunde liegenden großen Sprachmodelle von OpenAI – habe ihre urheberrechtlich geschützten Inhalte unrechtmäßig im Training verwendet und Ergebnisse erzeugt, die kostenpflichtige Berichte reproduzieren oder zusammenfassen. Die Kläger argumentieren, der Zugriff auf die Chatprotokolle der Nutzer werde aufzeigen, ob und wie häufig ChatGPT vollständige oder teilweise Passagen aus ihren urheberrechtlich geschützten Artikeln neu generiert.
Richterin Wang wies die Datenschutzbedenken von OpenAI zurück und merkte an, dass das Unternehmen verpflichtet sei, Namen, E-Mail-Adressen, Telefonnummern und alle anderendentDaten zu entfernen, bevor es die Protokolle herausgibt. Sie fügte hinzu, dass das Gericht zusätzlich zu dieserdentbereits mehrere Schutzmaßnahmen zum Schutz der Nutzerdaten implementiert habe.
OpenAI wurde angewiesen, die Inhalte sieben Tage nach Abschluss der Anonymisierung zu veröffentlichen. Das Unternehmen hatte zuvor gewarnt, dass die Befolgung dieser Anweisung einen beunruhigendendentschaffen könnte, und darauf hingewiesen, dass die überwiegende Mehrheit der Konversationen nichts mit dem Rechtsstreit zu tun hat.
Medienhäuser warnen: Protokolle werden den Missbrauch von KI aufdecken
Die New York Times und Zeitungen der MediaNews Group behaupten, dass die Protokolle belegen werden, dass OpenAI ihre journalistischen Inhalte ohne Erlaubnis gesammelt und verwendet hat.
Sie behaupten, ChatGPT habe mehrere Absätze generiert, die ihren Darstellungen nahezu wortgetreu ähneln oder sie gar wiederholen. Frank Pine, Chefredakteur der MediaNews Group, kritisierte das KI-Unternehmen scharf. Er sagte, OpenAI irre sich, wenn es glaube, ungestraft Beweise dafür zurückhalten zu können, wie sein Geschäftsmodell auf dem Diebstahl von Inhalten hart arbeitender Journalisten. Die Medien wiesen zudem OpenAIs Behauptung zurück, die KI manipuliert zu haben, um Urheberrechte zu verletzen.
Die Protokolle, so heißt es weiter, dienen als Beweis dafür, dass der Chatbot bereits vor und ohne Nutzereingriff urheberrechtlich geschützte Inhalte erstellen konnte. Laut der New York Times gehe es in dem Fall nicht darum, KI-Innovationen einzuschränken, sondern vielmehr um die Sicherstellung von Bezahlung und Fairness im Journalismus. OpenAI hat gegen die Entscheidung von Richter Wang Berufung beim zuständigen US-Bezirksrichter Sidney Stein eingelegt.
Das Unternehmen argumentiert, dass die Privatsphäre der Nutzer vor Gericht nicht beeinträchtigt werden dürfe und jede Offenlegung dieser Protokolle, selbst anonymisierter Daten, das Vertrauen in das Unternehmen untergraben könnte. Dane Stuckey, der Chief Information Security Officer des Unternehmens, hatte zuvor erklärt, dass solche Forderungen mehrerer Medienorganisationen gängigen Sicherheitspraktiken widersprechen und langjährige Datenschutzbestimmungen missachten.
Kritiker sehen den Widerstand von OpenAI als ein Schuldgefühl.
Kritiker argumentieren, dass OpenAIs Widerstand darauf hindeutet, dass das Unternehmen etwas zu verbergen hat. Wenn KI-Systeme auf öffentlich zugängliche Inhalte wie journalistische Beiträge angewiesen sind, um zu lernen und ihre Inhalte zu verbessern, sei Transparenz unerlässlich, so die Kritiker.
Die Urheberrechtsklage ist eine von mehreren, die gegen Technologiekonzerne wie Microsoft und Meta eingereicht wurden. Zusammengenommen werfen die Fälle wichtige Fragen auf, wie Organisationen, die KI einsetzen, Informationen sammeln, weitergeben und monetarisieren, und von wem, in welchem Umfang und wann sie eine Entschädigung verlangen können.
Dies bringt OpenAI in eine schwierige Lage, da es den Schutz der Privatsphäre der Nutzer mit Vorwürfen massiven Urheberrechtsdiebstahls in Einklang bringen muss. Es wirft zudem grundsätzliche Fragen auf, wie diese KI-Benutzeroberflächen mit geltenden Gesetzen, dem Schutz geistigen Eigentums und dem gesellschaftlichen Vertrauen vereinbar sind.
Sollten die Protokolle darauf hindeuten, dass ChatGPT urheberrechtlich geschützte Nachrichteninhalte ohne Genehmigung kopiert hat, dies weitreichende Konsequenzen. Nicht nur für OpenAI, sondern auch für die Zukunft des KI-Trainings, die Nachhaltigkeit der Medien und die digitalen Rechte.
Die Entscheidung signalisiert vorerst, dass die Gerichte bereit sind, Innovationen im Bereich der KI mit den traditionellen Schutzbestimmungen für geistiges Eigentum in Einklang zu bringen – selbst wenn dies die Vorstellungen von Privatsphäre im digitalen Zeitalter verkompliziert.
Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















