Un juez estadounidense ha dado vía libre a un grupo de escritores para demandar a la empresa de inteligencia artificial Anthropic por afirmar que sus libros fueron utilizados sin permiso para entrenar un modelo de inteligencia artificial.
La decisión permite que los autores procedan como grupo en una demanda colectiva. Es la última señal de que las tensiones están en auge entre artistas y empresas de inteligencia artificial que dependen de grandes cantidades de contenido en línea , a menudo creado por personas reales, para hacer que sus bots sean más inteligentes.
Los autores, todos profesionales publicados, afirman que Anthropic entrenó a su chatbot Claude con sus libros protegidos por derechos de autor sin pedir permiso ni pagar. Argumentan que la compañía se excedió al usar sus historias para enseñar a la IA a sonar más humana, incluso imitando sus estilos e ideas.
El juez dice que los autores pueden unirse contra Anthropic
El juez Vince Chhabria, en San Francisco, dictaminó que los autores tenían suficientes puntos en común como para que el caso se convirtiera en una demanda colectiva. Eso es importante. Significa que no se tratará de docenas de demandas separadas y prolongadas, sino de un solo caso con peso colectivo.
¿Las preguntas clave? ¿Realmente copió Anthropic su obra? Y, de ser así, ¿fue ese uso "justo" o infringió la ley de derechos de autor?
Anthropic esperaba desestimar el caso antes de que se iniciara, insistiendo en que cada escritor debía demandar por separado, pero el juez no lo aceptó. Afirmó que los problemas subyacentes eran básicamente los mismos y que era mejor abordarlos todos a la vez. Esto aumenta la presión legal sobre los desarrolladores de IA, muchos de los cuales ya están bajo escrutinio por cómo recopilan los datos que entrenan sus herramientas.
La demanda no es undentaislado. Profesionales creativos de todo el mundo se oponen a lo que consideran un uso no autorizado e injusto de su trabajo por parte de empresas de inteligencia artificial.
Getty Images se encuentra actualmente en una feroz batalla con Stability AI por las acusaciones de que millones de sus fotos se usaron sin licencia. En el mundo de la música, las grandes discográficas están demandando a las compañías que crean canciones generadas con IA. Las editoriales musicales han acusado a empresas de IA, incluida Anthropic, de usar letras de música con derechos de autor para entrenar a Claude .
Y en Hollywood, estudios como Disney acusan a Midjourney de tomar prestado demasiado de los personajes de sus películas. La tendencia es clara: los creadores están poniendo límites. Y el mundo tecnológico se ve obligado a escuchar.
Las empresas de inteligencia artificial, incluida Anthropic, dicen que simplemente están "aprendiendo"
Anthropic y otros en la industria argumentan que no están robando, sino que están entrenando. Dicen que el proceso es muy similar a cómo una persona lee un montón de libros y luego escribe algo con sus propias palabras. Según esta lógica, la IA no está copiando, sino aprendiendo.
Sam Altman, director ejecutivo de OpenAI, lo ha defendido públicamente. Sin material protegido por derechos de autor, ha afirmado, el mundo no contaría con herramientas como ChatGPT. Pero muchos artistas no lo creen, sobre todo cuando el resultado generado por IA se asemeja inquietantemente a la fuente original.
Una cosa es inspirarse, y otra muy distinta es difuminar la línea entre tomar prestado y copiar. Con la demanda colectiva en marcha, más autores podrían unirse al caso. Si el grupo gana, podría obtener una compensación económica e incluso obligar a las empresas de IA a replantearse cómo recopilan datos de entrenamiento.
Esta batalla legal no se limita a libros o bots. Se trata de quién se beneficia de la creatividad humana y de si se debe permitir que las máquinas aprendan del arte sin consentimiento.
A medida que avanza el auge de la IA, es probable que los tribunales desempeñen un papel fundamental a la hora de definir los límites. El caso podría determinar cómo las empresas de IA abordarán el trabajo protegido por derechos de autor al entrenar sus modelos de IA en el futuro. Y, por ahora, los autores luchan para asegurarse de no ser borrados en el proceso.

