Your bank is using your money. You’re getting the scraps.WATCH FREE

OpenAI arbeitet mit Bryan Cranston und SAG-AFTRA zusammen, um Deepfakes von Sora einzudämmen

In diesem Beitrag:

  • OpenAI hat sich mit Bryan Cranston, SAG-AFTRA und großen Behörden zusammengetan, um gegen Sora-Deepfakes vorzugehen.
  • Cranstons Gesicht und Stimme wurden nach dem Start von Sora 2 ohne seine Zustimmung verwendet.
  • Sam Altman hat die Richtlinien von Sora aktualisiert, um den Urhebern mehr Kontrolle über die Verwendung ihrer Abbildungen zu geben.

OpenAI gab am Montag bekannt, dass es sich mit Bryan Cranston, SAG-AFTRA und großen Hollywood-Talentgruppen zusammenschließt, um das wachsende Problem der Deepfakes anzugehen, die mit seinem KI-Videotool Sora erstellt werden.

Dies geschah, nachdem kurz nach dem Release von Sora 2 Ende September gefälschte Videos von Cranstons Gesicht und Stimme im Internet aufgetaucht waren. Cranston wusste nichts von deren Existenz, bis sie ihm zugespielt wurden, und war darüber alles andere als erfreut.

Cranston äußerte sich über SAG-AFTRA, die darüber auf X berichtete: „Ich bin OpenAI für seine Richtlinien und die Verbesserung seiner Schutzmaßnahmen dankbar und hoffe, dass sie und alle an dieser Arbeit beteiligten Unternehmen unser persönliches und berufliches Recht respektieren, die Vervielfältigung unserer Stimme und unseres Abbildes zu kontrollieren.“

Genau zu diesem Zeitpunkt OpenAI , dass man sich mit SAG-AFTRA, Cranstons Agentur United Talent Agency (UTA) und anderen führenden Organisationen wie der Creative Artists Agency (CAA) und der Association of Talent Agents zusammenschließen werde, um die unerlaubte Nutzung der Identitäten von Schauspielern zu dent .

OpenAI gerät wegen des Missbrauchs von Sora 2 unter Druck von Behörden

OpenAI steht schon seit Längerem in der Kritik von Talentagenturen. Sowohl CAA als auch UTA kritisierten das Unternehmen Anfang des Jahres scharf dafür, urheberrechtlich geschützte Werke zum Trainieren seiner Modelle zu verwenden, und bezeichneten Sora als direkte Bedrohung für das geistige Eigentum ihrer Klienten.

Siehe auch:  Google erhält als erstes Unternehmen in Großbritannien den Status eines „strategischen Marktes“

Diese Warnungen wurden ernst, als Nutzer begannen, respektlose Videos von Martin Luther King Jr. auf Sora hochzuladen. Die Videos waren so anstößig, dass Kings Nachlassverwaltung letzte Woche eingreifen und deren Sperrung fordern musste, woraufhin OpenAI dieser Bitte nachkam.

Doch damit nicht genug. Zelda Williams, Tochter des verstorbenen Komikers Robin Williams, forderte nach dem Erscheinen von Sora 2 ebenfalls auf, ihr keine KI-generierten Videos ihres Vaters mehr zu schicken. Kurz nach dem Launch machte sie ihrem Unmut Luft und heizte damit die ohnehin schon hitzige Debatte um OpenAIs laxen Umgang mit dem dent .

Angesichts der zunehmenden Beschwerden beschloss das Unternehmen, seine Richtlinien zu verschärfen. Sora hatte bereits eine ausdrückliche Einwilligung zur Nutzung von Stimme und Abbild verlangt, OpenAI versicherte nun aber auch, umgehend auf alle Beschwerden über Identitätsdiebstahl oder Missbrauch zu reagieren.

Sam Altman aktualisiert die Richtlinien und setzt sich für den NO FAKES Act ein

Am 3. Oktober gab OpenAI-CEO Sam Altman die Änderung offiziell bekannt: Die bisherige Richtlinie, die es dem Unternehmen erlaubte, Material zu verwenden, sofern keine Einwände erhoben wurden, ist abgeschafft. Rechteinhaber erhalten nun „detailliertere Kontrolle über die Charaktergenerierung“, wodurch Agenturen endlich bestimmen können, wie und wann diedentihrer Kunden in Sora verwendet werden.

Sam bekräftigte zudem seine Unterstützung für den NO FAKES Act, ein US-Gesetz, das unautorisierte KI-Kopien unterbinden soll. „OpenAI setzt sich mit Nachdruck dafür ein, Künstler vor der widerrechtlichen Aneignung ihrer Stimme und ihres Aussehens zu schützen“, sagte er. „Wir haben den NO FAKES Act bereits bei seiner Einführung im letzten Jahr von Anfang an unterstützt und werden uns auch weiterhin für die Rechte von Künstlern einsetzen.“

Siehe auch:  Fortnite kündigt neue Kartenänderungen für Kapitel 5, Saison 3 an

OpenAI hat sich von einem Forschungsinstitut zu einem KI-Imperium entwickelt, das alles abdeckt: Chat-Apps, soziale Plattformen und Unternehmenslösungen. Doch da Milliarden in KI-Chips investiert sind und der Ausbau der riesigen Rechenzentren weiterhin nach cashverlangt, sucht das Unternehmen intensiv nach Regierungs- undtrac, um die Kosten zu decken. Das bedeutet, dass die Vermeidung von Klagen und die Eindämmung von Interessenkonflikten mit Akteuren, Agenten und Gesetzgebern nun genauso wichtig sind wie das Training des nächsten KI-Modells.

Die Kryptokarte ohne Ausgabenlimit. Erhalten Sie 3 % cash und zahlen Sie sofort mobil. Fordern Sie Ihre Ether.fi-Karte an.

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführen tron / oder einen qualifizierten Fachmann zu konsultieren dent

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan