Em uma decisão histórica que poderá remodelar o futuro da inteligência artificial e da legislação de direitos autorais, um juiz federal dos EUA decidiu que a Anthropic não infringiu a lei ao usar livros protegidos por direitos autorais para treinar seus sistemas.
Mas a Anthropic – a empresa de IA por trás do chatbot Claude – não está completamente livre de responsabilidade; ela ainda pode enfrentar penalidades severas pela forma como lidou com esses livros.
Mas a Anthropic também ultrapassou os limites legais
A decisão foi proferida na noite de segunda-feira pelo juiz distrital dos EUA, William Alsup, em São Francisco, que considerou que o treinamento do modelo de IA da Anthropic, utilizando obras dos autores Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, se qualifica como uso justo.
Essa doutrina, que permite o uso limitado de conteúdo protegido por direitos autorais sem permissão, desempenhou um papel central na decisão de Alsup, uma das primeiras a abordar o uso justo na era da IA generativa.
“Assim como qualquer leitor que aspira a ser escritor, os modelos de linguagem de IA da Anthropic, treinados com base em obras, não visam replicar ou substituir as existentes, mas sim inovar e criar algo diferente”, escreveu Alsup.
Embora Alsup tenha concordado com a Anthropic em relação ao uso dos livros para treinamento de IA, ele deixou claro que a empresa ultrapassou os limites legais ao armazenar mais de 7 milhões de títulos pirateados no que ele chamou de "biblioteca central". Isso, segundo o juiz, não se enquadra no conceito de uso justo.
Está marcado um julgamento para dezembro para determinar quais danos, se houver, a Anthropic deverá pagar aos autores. De acordo com a lei de direitos autorais dos EUA, os danos por violação intencional podem chegar a US$ 150.000 por obra.
A Anthropic ainda não se pronunciou publicamente sobre a decisão, mas o resultado divide o caso em duas partes: a parte do treinamento está protegida, e o armazenamento não.
O caso Anthropic poderia sinalizar uma vitória para a indústria de IA?
O caso faz parte de uma onda mais ampla de processos judiciais movidos por autores e veículos de comunicação contra empresas como OpenAI, Meta e Microsoft, questionando a forma como elas desenvolvem seus sistemas de IA. A questão central é: essas empresas deveriam ter permissão para usar material protegido por direitos autorais, muitas vezes sem consentimento, para desenvolver ferramentas que, de certa forma, competem com os criadores originais?
A decisão de Alsup dá um impulso aos desenvolvedores de IA, muitos dos quais argumentam que seus modelos estão produzindo conteúdo novo e transformador e não deveriam ser obrigados a pagar a todos os detentores de direitos autorais cujo trabalho foi usado ao longo do processo.
“Como qualquer leitor que aspira a se tornar escritor, os modelos da Anthropic foram treinados com esses livros não para copiá-los, mas para criar algo inteiramente novo.”
Alsup.
A Anthropic alegou ao tribunal que copiar os livros era essencial para estudar estilos de escrita etracelementos não protegidos por direitos autorais, como estrutura e tom, para ajudar sua IA a criar conteúdo inédito.
A empresa argumentou que esse tipo de aprendizado, na verdade, promove a criatividade humana, algo que a lei de direitos autorais deveria incentivar.
Mas Alsup também criticou a Anthropic por coletar cópias digitais pirateadas dos livros. Embora a empresa tenha insistido que a fonte do material não importava, Alsup discordoutron.
Em sua decisão, ele afirmou: "Esta ordem questiona se qualquer suposto infrator conseguiria cumprir seu ônus de explicar por que baixar cópias originais de sites piratas, que ele poderia ter comprado ou acessado legalmente de outra forma, era razoavelmente necessário para qualquer uso justo subsequente."
Essencialmente, embora o uso final possa estar protegido, a forma como a Anthropic obteve o material não estava. Essa distinção pode moldar a maneira como as empresas de IA coletam dados de treinamento no futuro e, potencialmente, incentivar uma obtenção de dados mais ética, ou pelo menos legal.
Com o aumento do número de processos judiciais por violação de direitos autorais contra empresas de IA, essa decisão pode estabelecer um precedente importante dent O julgamento, marcado para dezembro, irá determinar se a abordagem da Anthropic para o armazenamento de conteúdo justifica sanções financeiras e, em caso afirmativo, qual a sua magnitude.

