Ante el creciente número de demandas contra empresas de IA por el uso no autorizado de contenido en el entrenamiento de modelos de IA, una de las firmas líderes, OpenAI, ofrece a los artistas una forma de evitar que sus obras se utilicen en el entrenamiento de modelos de IA. Sin embargo, esta solución parece tardía.
La lucha entre los creadores y las empresas de IA
Los programas de IA, ya sean para generar imágenes o chatbots, se entrenan con terabytes de contenido extraído de internet. Sin embargo, algunas de las empresas que desarrollan estos modelos lo han hecho con contenido obtenido sin permiso, robando así las obras de creadores y artistas humanos.
Desde entonces, la situación ha dado lugar a múltiples demandas y artículos contra empresas como OpenAI por utilizar potencialmente obras protegidas por derechos de autor para entrenar ilegalmente modelos de IA.
En septiembre, más de una docena de autores presentaron una demanda contra OpenAI por infringir sus derechos de autor al usar sus libros para entrenar a su popular chatbot ChatGPT. «El éxito y la rentabilidad de OpenAI se basan en la infracción masiva de derechos de autor sin la menor autorización ni compensación a los titulares de los derechos», se lee en la demanda.
Un mes antes, Cryptopolitan también informó que los abogados del NY Times también estaban considerando demandar al creador de ChatGPT debido a una violación de derechos de autor.
La respuesta tácita de OpenAI a las cuestiones de derechos de autor
A medida que se intensifican los temores y la presión legal sobre la invasión de la IA en las industrias creativas, OpenAI lanzó silenciosamente la última versión de su programa de IA de generación de imágenes, DALL-E 3, con la opción de permitir a los creadores evitar que sus obras se utilicen en el entrenamiento de modelos de IA.
Además, DALL-E 3 ahora rechazará las solicitudes que requieran imágenes diseñadas al estilo de un artista. «DALL-E 3 está diseñado para rechazar las solicitudes que requieren una imagen al estilo de un artista vivo. Los creadores ahora también pueden excluir sus imágenes del entrenamiento de nuestros futuros modelos de generación de imágenes», declaró OpenAI.
Si bien este es sin duda un paso en la dirección correcta para que los artistas protejan sus obras en el futuro, es posible que no haga mucha diferencia porque los contenidos publicados antes de 2023 ya podrían haberse incorporado al conjunto de datos de IA, y no es económicamente viable que las empresas vuelvan a capacitar sus programas debido a solicitudes de exclusión individuales.
“¿El pasado? Ya pasó, o al menos la mayor parte”, dijo Daniel Gervais, profesor de derecho en la Universidad de Vanderbilt, especializado en inteligencia artificial y derechos de autor.
OpenAI ofrece a los artistas una forma de evitar que los modelos de IA raspen sus obras
