YouTube está desarrollando herramientas para detectar el uso de versiones generadas por inteligencia artificial de las voces o imágenes físicas de los usuarios en videos sin su consentimiento. En un anuncio de hoy, la plataforma propiedad de Google dijo que estas herramientas protegerán a los creadores en su plataforma.
El anuncio es un avance bienvenido, ya que las herramientas abordan las principales preocupaciones en torno a la proliferación de deepfakes, que a veces provocan pérdidas financieras y de reputación. Muchos esperan que esto haga que el proceso de dent y denuncia de deepfakes sea más fluido.
Dos herramientas se centran en proteger a músicos y figuras públicas
La empresa explicó que está trabajando en dos herramientas. La primera es una herramienta de dent de voz cantada que sería parte del sistema Content ID de YouTube. Esta función detecta matic contenido generado por IA que simula las voces de otras personas en la plataforma y los elimina matic .
Para la segunda herramienta, YouTube está desarrollando una tecnología que permite a personas populares como creadores, atletas, músicos y artistas detectar y eliminar falsificaciones de sus rostros en la plataforma. La compañía señaló que estas herramientas, junto con sus Actualizaciones de Privacidad y Términos de Servicio, serían suficientes para proteger a los creadores.
Sin embargo, el objetivo de YouTube no es impedir que la gente utilice la IA en su plataforma; solo busca garantizar el uso responsable de la IA y empoderar a los creadores para controlar el uso de su imagen.
Decía :
“Creemos que la IA debería mejorar la creatividad humana, no reemplazarla. Estamos comprometidos a trabajar con nuestros socios para garantizar que los avances futuros amplifiquen sus voces y continuaremos desarrollando barreras para abordar las inquietudes y lograr nuestros objetivos comunes”.
Mientras tanto, YouTube no dio un cronograma sobre cuándo estas funciones estarían disponibles para los usuarios, solo señaló que la herramienta de detección de voz cantada aún necesita algunos ajustes, pero que habría un programa piloto a principios de 2025.
YouTube se burla de la tecnología para evitar el robo de datos de IA
YouTube también insinuó que está trabajando en una herramienta para evitar que las empresas de inteligencia artificial utilicen el contenido de su plataforma para entrenar sus modelos sin el permiso de los propietarios. Al considerar esto como un problema importante, la plataforma dijo que está invirtiendo en sistemas que detectarán y bloquearán a terceros para que no extraigan datos de su plataforma y violen sus Términos de servicio.
Sin embargo, reconoció que es posible que los creadores quieran colaborar con empresas de inteligencia artificial. Por ello, está trabajando en formas de permitir a los creadores de YouTube controlar cómo terceros utilizan su contenido en la plataforma.
A pesar de la dura postura de YouTube contra las empresas de inteligencia artificial que extraen su contenido para entrenar sus modelos, la plataforma y su empresa matriz, Google, utilizan este contenido para el mismo propósito, pero respetando los términos de servicio. Planea seguir usando el contenido para desarrollar herramientas de inteligencia artificial de manera responsable.