ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

OpenAI se asocia con Bryan Cranston y SAG‑AFTRA para frenar los deepfakes de Sora

PorJai HamidJai Hamid
Lectura de 2 minutos.
OpenAI se asocia con Bryan Cranston y SAG‑AFTRA para frenar los deepfakes de Sora
  • OpenAI se asoció con Bryan Cranston, SAG‑AFTRA y agencias importantes para combatir las deepfakes de Sora.
  • La cara y la voz de Cranston fueron utilizadas sin consentimiento después del lanzamiento de Sora 2.
  • Sam Altman actualizó la política de Sora para darles a los creadores más control sobre el uso de la imagen.

OpenAI dijo el lunes que está uniendo fuerzas con Bryan Cranston, SAG-AFTRA y los principales grupos de talentos de Hollywood para abordar el creciente desastre de deepfakes realizados en su herramienta de video de inteligencia artificial, Sora.

Esto ocurre después de que aparecieran en línea clips falsos del rostro y la voz de Cranston justo después del lanzamiento de Sora 2 a finales de septiembre. Cranston no tenía ni idea de su existencia hasta que se los compartieron, y no estaba contento.

Hablando a través de SAG‑AFTRA, que publicó al respecto en X, Cranston dijo: “Estoy agradecido con OpenAI por su política y por mejorar sus barreras de protección, y espero que ellos y todas las empresas involucradas en este trabajo respeten nuestro derecho personal y profesional a gestionar la replicación de nuestra voz e imagen”

Esa frase salió a la luz justo cuando OpenAI anunció que se asociaría con SAG-AFTRA, la agencia de Cranston, United Talent Agency (UTA), y otros grupos importantes como Creative Artists Agency (CAA) y la Asociación de Agentes de Talento para acabar con el uso no autorizado de ladent.

OpenAI se enfrenta a críticas de las agencias por el mal uso de Sora 2

OpenAI ha estado bajo la lupa de las agencias de talento desde hace tiempo. Tanto CAA como UTA criticaron duramente a la compañía a principios de este año por usar material protegido por derechos de autor para entrenar a sus modelos, calificando a Sora de amenaza directa a la propiedad intelectual de sus clientes.

Esas advertencias se hicieron realidad cuando los usuarios empezaron a subir a Sora videos irrespetuosos de Martin Luther King Jr. Los videos eran tan malos que los herederos de King tuvieron que intervenir la semana pasada y solicitar su bloqueo, y OpenAI accedió.

La polémica no terminó ahí. Zelda Williams, hija del fallecido comediante Robin Williams, también pidió que dejaran de enviarle videos de su padre creados con inteligencia artificial tras el lanzamiento de Sora 2. Poco después del lanzamiento, hizo pública su frustración, avivando aún más la polémica en torno a la laxadentprotección

Ante la acumulación de quejas, la empresa decidió endurecer sus políticas. Sora ya exigía el consentimiento expreso para el uso de voz e imagen, pero OpenAI afirmó que ahora también promete responder con rapidez a cualquier queja que reciba sobre suplantaciones de identidad o uso indebido.

Sam Altman actualiza la política e impulsa la Ley NO FAKES

El 3 de octubre, Sam Altman, director ejecutivo de OpenAI, lo hizo oficial: ¿La antigua política que permitía a la compañía usar material a menos que alguien les dijera que no lo hicieran? Se descartó. La compañía ahora ofrece a los titulares de derechos un control más detallado sobre la generación de personajes, lo que significa que las agencias finalmente pueden gestionar cómo y cuándo se usan lasdentde sus clientes en Sora.

Sam también redobló su apoyo a la Ley NO FAKES, un proyecto de ley estadounidense destinado a detener las réplicas no autorizadas de IA. "OpenAI está profundamente comprometido con la protección de los artistas intérpretes o ejecutantes de la apropiación indebida de su voz e imagen", declaró. "Fuimos de los primeros en apoyar la Ley NO FAKES cuando se presentó el año pasado y siempre defenderemos los derechos de los artistas intérpretes o ejecutantes"

OpenAI ha pasado de ser una empresa de investigación a un imperio de la IA que lo abarca todo: aplicaciones de chat, plataformas sociales y herramientas empresariales. Pero con miles de millones invertidos en chips de IA y su gigantesco centro de datos aún necesitado de cash, está buscando activamentetracgubernamentales y corporativos para cubrir sus gastos. Esto significa que evitar demandas y liberarse de actores, agentes y legisladores es ahora tan importante como entrenar al próximo modelo de IA.

No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.

Comparte este artículo
MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO