Com o crescente número de processos contra empresas de IA devido ao uso não autorizado de conteúdo no treinamento de modelos de IA, uma das principais empresas do setor, a OpenAI, agora oferece aos artistas uma maneira de impedir que suas obras sejam usadas no treinamento de modelos de IA. No entanto, essa solução parece tardia.
A disputa entre criadores e empresas de IA
Os programas de IA, sejam eles para geração de imagens ou chatbots, são treinados usando terabytes de conteúdo extraído da internet. No entanto, algumas das empresas por trás desses modelos fizeram isso usando conteúdo obtido sem permissão, basicamente roubando o trabalho de criadores e artistas humanos.
Desde então, a situação resultou em vários processos judiciais e artigos contra empresas como a OpenAI, por supostamente utilizarem obras protegidas por direitos autorais para treinar ilegalmente modelos de IA.
Em setembro, mais de uma dúzia de autores entraram com um processo contra a OpenAI por violação de seus direitos autorais, alegando que seus livros foram usados para treinar o popular chatbot ChatGPT. "O sucesso e a lucratividade da OpenAI se baseiam na violação em massa de direitos autorais sem qualquer permissão ou compensação aos detentores desses direitos", afirma a queixa.
Um mês antes, Cryptopolitan também noticiou que os advogados do NY Times estavam considerando processar o criador do ChatGPT por violação de direitos autorais.
Resposta tácita da OpenAI às questões de direitos autorais
À medida que aumentam os receios e a pressão legal sobre a invasão da IA nas indústrias criativas, a OpenAI lançou discretamente a versão mais recente do seu programa de IA para geração de imagens, o DALL-E 3, com a opção de permitir que os criadores impeçam que os seus trabalhos sejam utilizados no treino de modelos de IA.
Além disso, o DALL-E 3 agora rejeitará solicitações que peçam imagens no estilo de um artista. "O DALL-E 3 foi projetado para rejeitar solicitações que peçam uma imagem no estilo de um artista vivo. Os criadores agora também podem optar por não ter suas imagens treinadas em nossos futuros modelos de geração de imagens", disse a OpenAI.
Embora isso represente um passo considerável na direção certa para que os artistas protejam seus trabalhos no futuro, também pode não fazer muita diferença, visto que o conteúdo publicado antes de 2023 já pode ter sido inserido no conjunto de dados de IA, e não é economicamente viável para as empresas reprogramar seus programas devido a pedidos individuais de exclusão.
“O passado? Já era – pelo menos a maior parte dele”, disse Daniel Gervais, professor de direito da Universidade Vanderbilt, especializado em inteligência artificial e direitos autorais.
A OpenAI oferece aos artistas uma maneira de impedir que modelos de IA extraiam suas obras
