Cargando...

El gobierno del Reino Unido, las empresas de inteligencia artificial y las organizaciones creativas eluden el consenso sobre el código de derechos de autor de la IA

TL;DR

  • No hay acuerdo sobre las normas de derechos de autor de la IA en el Reino Unido, lo que deja las cosas inciertas.
  • Las demandas por derechos de autor aumentan a medida que AI utiliza material protegido por derechos de autor sin reglas claras.
  • La equidad exige actualizaciones de las leyes de IA y pioneros como Ed Newton-Rex impulsan el uso ético de los datos.

Después de casi un año de deliberaciones, la Oficina de Propiedad Intelectual (IPO) del Reino Unido no logró lograr un consenso entre las autoridades gubernamentales, los de la IA y las organizaciones creativas con respecto a una propuesta de código de prácticas para entrenar modelos de IA en material protegido por derechos de autor.

El objetivo de estas discusiones fue establecer pautas claras para la práctica de la minería de textos y datos, particularmente en lo que respecta a los modelos de IA entrenados en libros, imágenes y películas con derechos de autor. 

Lamentablemente, el consorcio mediado por IPO no ha acordado un código de conducta voluntario. En consecuencia, la responsabilidad ha sido devuelta a los funcionarios del Departamento de Ciencia, Innovación y Tecnología, sin perspectivas inminentes de que se establezcan políticas defi .

Una preocupación para los profesionales creativos

Este estancamiento en las negociaciones es un revés significativo para los profesionales creativos que están cada vez más preocupados por el posible mal uso de su trabajo. Las herramientas de inteligencia artificial, como ChatGPT de OpenAI y el generador de texto a imagen Stable Diffusion de Stability AI, a menudo dependen de datos extraídos de la web, lo que lleva a generar contenido que puede parecerse mucho al material original.  

Esta práctica ha despertado numerosas preocupaciones entre los creadores que temen que su trabajo pueda ser copiado, reproducido y distribuido sin la atribución o compensación adecuada.

Solo en 2023, la industria tecnológica fue testigo de un aumento en los litigios por derechos de autor, con acusaciones de que empresas tecnológicas se apropiaban del trabajo de los artistas para entrenar sus modelos de inteligencia artificial. Uno de los casos más sonados se desarrolló en los Estados Unidos, donde The New York Times emprendió acciones legales contra OpenAI y Microsoft por infracción de derechos de autor. Estas demandas subrayan la necesidad apremiante de contar con regulaciones claras en torno a la IA y los derechos de propiedad intelectual.

La rápida expansión y el retraso legal de la IA

La industria del entretenimiento ha visto una rápida integración de las tecnologías de inteligencia artificial en los últimos años, desde audiolibros automatizados y asistentes de voz hasta videos deepfake y herramientas de conversión de texto a voz. Desafortunadamente, los marcos legales han tenido dificultades para seguir el ritmo de estos avances tecnológicos. La ausencia de directrices y regulaciones bien defi ha dejado tanto a los profesionales creativos como a los desarrolladores de IA en un estado de incertidumbre.

Reconociendo la urgente necesidad de una reforma legal, Equity, un sindicato que representa a 50.000 artistas y profesionales creativos en el Reino Unido, ha iniciado la campaña “Stop AI Stealing the Show”. La campaña tiene como objetivo presionar al gobierno para que actualice integralmente la ley para salvaguardar los medios de vida de los artistas y creadores.

 Equity ha expresado su disposición a una “acción industrial”, que recuerda a las huelgas de Hollywood de 2023, en caso de que no se lleguen a acuerdos clave en materia de inteligencia artificial y propiedad intelectual. Liam Budd, un funcionario del sindicato, criticó el enfoque cauteloso del gobierno respecto de la regulación de la IA y abogó por medidas más proactivas.

Más allá de la industria creativa, los pioneros de la IA generativa también han expresado sus preocupaciones. Ed Newton-Rex, una figura notable en el campo de la IA, dejó Stability AI en noviembre debido al uso de contenido protegido por derechos de autor por parte de la startup.  

En enero, lanzó una organización sin fines de lucro llamada “Fairly Trained”, cuyo objetivo es certificar a las empresas de inteligencia artificial que obtienen sus datos de manera ética. La medida de Newton-Rex subraya el creciente impulso detrás del impulso a las prácticas éticas de IA y la protección de los derechos de autor.

Descargo de responsabilidad.  La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron realizar dent y/o consultar con un profesional calificado antes de tomar cualquier decisión de inversión.

Compartir enlace:

benson mawira

Benson es un reportero de blockchain que ha profundizado en noticias de la industria, análisis en cadena, tokens no fungibles (NFT), inteligencia artificial (IA), etc. Su área de especialización son los mercados de criptomonedas, análisis fundamental y técnico. Con su perspicaz Al cubrir todo lo relacionado con tecnologías financieras, Benson ha conseguido lectores en todo el mundo.

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

Noticias relacionadas

ameca
criptopolitano
Suscríbete a CryptoPolitan