Meta Platforms hat ein US-Gericht um die Abweisung einer Klage gebeten, in der dem Unternehmen vorgeworfen wird, Tausende von Inhalten für Erwachsene illegal heruntergeladen und verbreitet zu haben, um seine KI-Systeme zu trainieren. Der Antrag auf Abweisung wurde beim US-Bezirksgericht für den nördlichen Bezirk von Kalifornien eingereicht und argumentiert, dass es keine Beweise für diese Behauptungen gebe.
In seiner Klage behauptet Meta, es gebe keinerlei Beweise dafür, dass seine Modelle urheberrechtlich geschütztes Material enthielten oder damit trainiert worden seien. Das Unternehmen bezeichnete die Anschuldigungen zudem als „unsinnig und unbegründet“. Ars Technica berichtete zuerst über den Antrag; Meta wies die Vorwürfe entschieden zurück und erklärte, sie seien haltlos.
„Die Kläger haben sich große Mühe gegeben, diese Geschichte mit Spekulationen und Andeutungen zusammenzuschustern, aber ihre Behauptungen sind weder stichhaltig noch durch gut vorgetragene Tatsachen untermauert“, heißt es in dem Antrag.
Meta beantragt die Abweisung der Klage wegen Piraterie von Inhalten für Erwachsene
Die ursprüngliche Klage wurde im Juli von Strike 3 Holdings eingereicht. Die Plattform warf Meta vor, seit 2018 mithilfe von Firmen- und verschleierten IP-Adressen fast 2.400 Erwachsenenfilme per Torrent heruntergeladen zu haben. Strike 3 behauptete, dies sei Teil der umfassenderen Bemühungen des Unternehmens, multimodale KI-Systeme zu entwickeln. Strike 3 ist ein in Miami ansässiges Unternehmen, das Erwachsenenfilme unter Marken wie Vixen, Tushy und Blacked vertreibt.
In ihrem Antrag argumentiert Meta, dass Umfang und Muster der angeblichen Downloads der KI-Trainingstheorie von Strike 3 widersprechen. In den letzten sieben Jahren wurden angeblich nur 157 von Strike produzierte Inhalte für Erwachsene über die IP-Adressen von Metas Unternehmen heruntergeladen. Dies entspricht einem Durchschnitt von etwa 22 Downloads pro Jahr über 47 verschiedene IP-Adressen.
Angela Dunning, die Anwältin von Meta, bezeichnete die Klage als „dürftige, unkoordinierte Aktivität“ von „verschiedenen Personen“
Dunning führte die Downloads auf Einzelpersonen zurück und betonte, dass diese für den persönlichen Gebrauch bestimmt waren und nicht, wie von Strike 3 behauptet, Teil der Bemühungen des Technologiekonzerns waren, Daten für das KI-Training zu sammeln. Der Antrag widerspricht außerdem Strike 3s Behauptung, Meta habe mehr als 2.500 versteckte IP-Adressen von Drittanbietern verwendet. Strike 3 merkt an, dass die Adressen nicht verifiziert, sondern lediglich lose Zusammenhänge hergestellt wurden. Laut Strike 3 steht einer der IP-Bereiche angeblich in Verbindung mit einer gemeinnützigen Organisation auf Hawaii, die jedoch keine Verbindung zu Meta hat, während andere keinen dent Inhaber aufweisen.
Meta behauptete außerdem, es gebe keinen Beweis dafür, dass es von den angeblichen Downloads gewusst habe, und auch keinen Beweis dafür, dass es diese hätte verhindern können. Weiterhin erklärte das Unternehmen, es habe keinen Nutzen daraus gezogen und die Überwachung jeder einzelnen Datei in seinem globalen Netzwerk sei weder einfach noch gesetzlich vorgeschrieben.
Dermot McGrath, Mitbegründer der Risikokapitalgesellschaft Ryzen Labs, sagte: „Wenn Meta zugeben würde, dass die Daten in Modellen verwendet wurden, müssten sie sich auf das Recht auf faire Nutzung berufen, die Einbindung urheberrechtswidriger Inhalte rechtfertigen und sich der Offenlegung ihrer internen Schulungs- und Prüfsysteme aussetzen.“ Er fügte hinzu, dass Meta, anstatt die Art der Datennutzung zu leugnen, die Nutzung der Daten an sich abstreitet. McGrath behauptet jedoch, dass die Zulassung dieser Verteidigung durch das Gericht eine massive Gesetzeslücke öffnen könnte
Er behauptet, dies könne „den Urheberrechtsschutz für Fälle im Zusammenhang mit KI-Trainingsdaten effektiv untergraben“, sodass in zukünftigen Fällen „tronBeweise für die Unternehmensführung erforderlich wären, die die Unternehmen einfach besser zu verbergen fänden“
Dennoch gibt es legitime Gründe für die Verwendung expliziter Inhalte. Einige Unternehmen nutzen sie beispielsweise zur Entwicklung von Sicherheits- oder Moderationstools. „Die meisten großen KI- Unternehmen verfügen über sogenannte Red Teams, deren Aufgabe es ist, Modelle auf Schwachstellen zu untersuchen, indem sie schädliche Eingaben machen und versuchen, die KI dazu zu bringen, explizite, gefährliche oder verbotene Inhalte zu generieren“, so McGrath.

