En una decisión histórica que podría cambiar el futuro de la inteligencia artificial y la legislación sobre derechos de autor, un juez federal estadounidense dictaminó que Anthropic no violó la ley al utilizar libros con derechos de autor para entrenar sus sistemas.
Pero Anthropic (la empresa de inteligencia artificial detrás del chatbot Claude) no está completamente libre de responsabilidades; aún podría enfrentar severas sanciones por cómo manejó esos libros.
Pero Anthropic también sobrepasó los límites legales
El fallo llegó el lunes por la noche del juez de distrito estadounidense William Alsup en San Francisco, quien encontró que el entrenamiento del modelo de inteligencia artificial de Anthropic utilizando las obras de los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson califica como uso justo.
Esta doctrina, que permite el uso limitado de contenido protegido por derechos de autor sin permiso, jugó un papel central en el fallo de Alsup, uno de los primeros en abordar el uso justo en la era de la IA generativa.
“Como cualquier lector que aspira a ser escritor, los modelos de lenguaje de gran tamaño de Anthropic (IA) se entrenaron con obras no para avanzar rápidamente y replicarlas o suplantarlas, sino para dar un giro y crear algo diferente”, escribió Alsup.
Si bien Alsup se pronunció a favor de Anthropic en cuanto al uso de los libros para el entrenamiento de IA, dejó claro que la compañía sobrepasó los límites legales al almacenar más de 7 millones de títulos pirateados en lo que denominó una "biblioteca central". Esto, según el juez, no se consideraba uso legítimo.
Se ha programado un juicio para diciembre para determinar la indemnización que Anthropic deberá a los autores, si corresponde. Según la ley estadounidense de derechos de autor, la indemnización por infracción intencional puede alcanzar los 150.000 dólares por obra.
Anthropic aún no ha hecho comentarios públicos sobre el fallo, pero el resultado divide el caso en dos: la parte de entrenamiento está protegida y el almacenamiento no.
¿Podría el caso Anthropic suponer una victoria para la industria de la IA?
El caso forma parte de una ola más amplia de demandas por parte de autores y medios de comunicación contra empresas como OpenAI, Meta y Microsoft por la forma en que desarrollan sus sistemas de IA. La pregunta central es: ¿debería permitirse a estas empresas utilizar material protegido por derechos de autor, a menudo sin consentimiento, para desarrollar herramientas que, de alguna manera, compiten con los creadores originales?
El fallo de Alsup da un impulso a los desarrolladores de IA, muchos de los cuales argumentan que sus modelos están produciendo contenido nuevo y transformador y no deberían verse obligados a pagar a todos los titulares de derechos de autor cuyo trabajo se utilizó en el proceso.
“Como cualquier lector que aspira a convertirse en escritor, los modelos de Anthropic fueron entrenados en estos libros no para copiarlos, sino para crear algo completamente nuevo”.
Alsup.
Anthropic había dicho al tribunal que copiar los libros era esencial para estudiar estilos de escritura ytracelementos no sujetos a derechos de autor, como la estructura y el tono, para ayudar a su IA a crear contenido novedoso.
La empresa argumentó que este tipo de aprendizaje en realidad fomenta la creatividad humana, algo que la ley de derechos de autor supuestamente fomenta.
Pero Alsup también criticó a Anthropic por recopilar copias digitales piratas de los libros. Si bien la compañía había insistido en que la fuente del material no importaba, Alsup discrepótron.
En su fallo, dijo: “Esta orden pone en duda que cualquier infractor acusado pueda alguna vez cumplir con su carga de explicar por qué la descarga de copias fuente de sitios piratas que podría haber comprado o accedido de otra manera legalmente era en sí misma razonablemente necesaria para cualquier uso justo posterior”.
En esencia, si bien el uso final podría estar protegido, la forma en que Anthropic obtuvo el material no lo estaba. Esta distinción podría determinar cómo las empresas de IA recopilarán datos de entrenamiento en el futuro y, potencialmente, fomentar una obtención de datos más ética, o al menos legal.
Con más demandas por derechos de autor en curso contra empresas de IA, esta decisión podría sentar un precedente clave dent El juicio de diciembre decidirá si la estrategia de Anthropic para almacenar contenido amerita sanciones económicas y, de ser así, su cuantía.

