OpenAI gab am Montag bekannt, dass es sich mit Bryan Cranston, SAG-AFTRA und großen Hollywood-Talentgruppen zusammenschließt, um das wachsende Problem der Deepfakes anzugehen, die mit seinem KI-Videotool Sora erstellt werden.
Dies geschah, nachdem kurz nach dem Release von Sora 2 Ende September gefälschte Videos von Cranstons Gesicht und Stimme im Internet aufgetaucht waren. Cranston wusste nichts von deren Existenz, bis sie ihm zugespielt wurden, und war darüber alles andere als erfreut.
Cranston äußerte sich über SAG-AFTRA, die darüber auf X berichtete: „Ich bin OpenAI für seine Richtlinien und die Verbesserung seiner Schutzmaßnahmen dankbar und hoffe, dass sie und alle an dieser Arbeit beteiligten Unternehmen unser persönliches und berufliches Recht respektieren, die Vervielfältigung unserer Stimme und unseres Abbildes zu kontrollieren.“
Genau zu diesem Zeitpunkt OpenAI , dass man sich mit SAG-AFTRA, Cranstons Agentur United Talent Agency (UTA) und anderen führenden Organisationen wie der Creative Artists Agency (CAA) und der Association of Talent Agents zusammenschließen werde, um die unerlaubte Nutzung der Identitäten von Schauspielern zu dent .
OpenAI gerät wegen des Missbrauchs von Sora 2 unter Druck von Behörden
OpenAI steht schon seit Längerem in der Kritik von Talentagenturen. Sowohl CAA als auch UTA kritisierten das Unternehmen Anfang des Jahres scharf dafür, urheberrechtlich geschützte Werke zum Trainieren seiner Modelle zu verwenden, und bezeichneten Sora als direkte Bedrohung für das geistige Eigentum ihrer Klienten.
Diese Warnungen wurden ernst, als Nutzer begannen, respektlose Videos von Martin Luther King Jr. auf Sora hochzuladen. Die Videos waren so anstößig, dass Kings Nachlassverwaltung letzte Woche eingreifen und deren Sperrung fordern musste, woraufhin OpenAI dieser Bitte nachkam.
Doch damit nicht genug. Zelda Williams, Tochter des verstorbenen Komikers Robin Williams, forderte nach dem Erscheinen von Sora 2 ebenfalls auf, ihr keine KI-generierten Videos ihres Vaters mehr zu schicken. Kurz nach dem Launch machte sie ihrem Unmut Luft und heizte damit die ohnehin schon hitzige Debatte um OpenAIs laxen Umgang mit dem dent .
Angesichts der zunehmenden Beschwerden beschloss das Unternehmen, seine Richtlinien zu verschärfen. Sora hatte bereits eine ausdrückliche Einwilligung zur Nutzung von Stimme und Abbild verlangt, OpenAI versicherte nun aber auch, umgehend auf alle Beschwerden über Identitätsdiebstahl oder Missbrauch zu reagieren.
Sam Altman aktualisiert die Richtlinien und setzt sich für den NO FAKES Act ein
Am 3. Oktober gab OpenAI-CEO Sam Altman die Änderung offiziell bekannt: Die bisherige Richtlinie, die es dem Unternehmen erlaubte, Material zu verwenden, sofern keine Einwände erhoben wurden, ist abgeschafft. Rechteinhaber erhalten nun „detailliertere Kontrolle über die Charaktergenerierung“, wodurch Agenturen endlich bestimmen können, wie und wann diedentihrer Kunden in Sora verwendet werden.
Sam bekräftigte zudem seine Unterstützung für den NO FAKES Act, ein US-Gesetz, das unautorisierte KI-Kopien unterbinden soll. „OpenAI setzt sich mit Nachdruck dafür ein, Künstler vor der widerrechtlichen Aneignung ihrer Stimme und ihres Aussehens zu schützen“, sagte er. „Wir haben den NO FAKES Act bereits bei seiner Einführung im letzten Jahr von Anfang an unterstützt und werden uns auch weiterhin für die Rechte von Künstlern einsetzen.“
OpenAI hat sich von einem Forschungsinstitut zu einem KI-Imperium entwickelt, das alles abdeckt: Chat-Apps, soziale Plattformen und Unternehmenslösungen. Doch da Milliarden in KI-Chips investiert sind und der Ausbau der riesigen Rechenzentren weiterhin nach cashverlangt, sucht das Unternehmen intensiv nach Regierungs- undtrac, um die Kosten zu decken. Das bedeutet, dass die Vermeidung von Klagen und die Eindämmung von Interessenkonflikten mit Akteuren, Agenten und Gesetzgebern nun genauso wichtig sind wie das Training des nächsten KI-Modells.

