Your bank is using your money. You’re getting the scraps.WATCH FREE

Artistas e pesquisadores unem forças para proteger obras criativas da imitação por IA

Neste post:

  • Artistas estão se unindo a pesquisadores para impedir que a IA copie seus trabalhos; softwares gratuitos como o Glaze ajudam a tornar a arte irreconhecível para a IA.
  • O software Kudurru detecta a coleta ilegal de imagens online e permite que os artistas bloqueiem o acesso, enquanto o AntiFake protege gravações de voz contra deepfakes.
  • O objetivo é promover o uso ético de dados de IA, com a esperança de um mundo onde todos os dados utilizados estejam sujeitos a consentimento e pagamento para proteger artistas e criadores.

Numa era em que a inteligência artificial continua a expandir os limites da inovação tecnológica, surge uma nova colaboração entre artistas e investigadores universitários para salvaguardar a propriedade intelectual das mentes criativas. O recente encontro da ilustradora americana Paloma McClain com a replicação não autorizada da sua obra de arte por IA desencadeou uma resposta proativa na comunidade artística, resultando em soluções de software inovadoras para prevenir a atividade de plágio impulsionada por IA.

A ilustradora americana Paloma McClain se viu no alvo da busca implacável da inteligência artificial pela replicação criativa. Vários modelos de IA foram "treinados" usando sua arte sem seu conhecimento ou consentimento, deixando-a sem o devido crédito ou compensação. McClain, uma defensora ferrenha do avanço tecnológico ético, expressou suas preocupações: "Acredito que o avanço tecnológico verdadeiramente significativo é feito de forma ética e beneficia a todos, em vez de funcionar às custas de outros."

Em resposta ao crescente problema da imitação por IA, Paloma McClain recorreu ao Glaze, um software livre revolucionário criado por pesquisadores da Universidade de Chicago. A principal função do Glaze é superar os modelos de IA durante o processo de treinamento, manipulando pixels de maneiras sutis que permanecem invisíveis ao olho humano, enquanto altera drasticamente a aparência da arte digitalizada para os algoritmos de IA.

Protegendo os criadores humanos

O professor Ben Zhao, membro fundamental da equipe de desenvolvimento do Glaze, destacou a missão do projeto: "Basicamente, estamos fornecendo ferramentas técnicas para ajudar a proteger criadores humanos contra modelos de IA invasivos e abusivos." Este software, desenvolvido em quatro meses, baseia-se em tecnologia inicialmente projetada para interromper sistemas de reconhecimento facial. Zhao enfatizou a urgência da situação, explicando: "Estávamos trabalhando em ritmo acelerado porque sabíamos que o problema era sério. Muitas pessoas estavam sofrendo."

Veja também:  Sage registra desempenho robusto no primeiro semestre, atribuindo o sucesso à IA e aos serviços em nuvem.

Embora algumas gigantes da inteligência artificial generativa possuam acordos formais para o uso de dados, uma parcela significativa dos dados empregados para treinar IA, incluindo imagens digitais, áudio e texto, é coletada da internet sem consentimento explícito. Essa prática levanta questões críticas sobre o uso ético da IA ​​e os direitos de propriedade intelectual.

Desde o seu lançamento em março de 2023, o Glaze tem tido ampla adoção, com mais de 1,6 milhão de downloads, refletindo a urgência da necessidade de ferramentas que protejam os artistas da replicação por IA. A equipe do Glaze está desenvolvendo um aprimoramento conhecido como Nightshade, que visa confundir ainda mais a IA, distorcendo suas interpretações, como fazê-la perceber um cachorro como um gato.

Ao endossar o Nightshade, Paloma McClain destacou seu potencial para causar um impacto significativo caso seja amplamente adotado: "De acordo com a pesquisa da Nightshade, não seriam necessárias tantas imagens contaminadas quanto se imagina". Diversas empresas já entraram em contato com a equipe de Zhao para explorar o uso do Nightshade, o que reforça sua relevância na proteção tanto de artistas individuais quanto de organizações com propriedade intelectual substancial.

Kudurru: Defesa contra a coleta ilegal de imagens

A startup Viva Voce contribuiu para a defesa de obras criativas com seu software Kudurru. O Kudurru detecta tentativas de coletar imagens grandes de fontes online, permitindo que artistas bloqueiem o acesso ou forneçam dados enganosos para interromper o processo de aprendizado da IA. Mais de mil sites já foram integrados à rede Kudurru.

A Spawning ampliou seus esforços com o lançamento do haveibeentrained.com, um site que oferece uma ferramenta online para que artistas possam verificar se suas obras digitalizadas foram usadas para treinar modelos de IA. Essa plataforma permite que os artistas optem por não permitir o uso não autorizado de suas obras no futuro, proporcionando o controle necessário sobre seu conteúdo criativo.

Veja também:  Domínio de mercado da Nvidia gera preocupações com a concorrência

Pesquisadores da Universidade de Washington, no Missouri, aventuraram-se na proteção de gravações de voz com o software AntiFake. O programa enriquece gravações de voz digitais com ruídos inaudíveis, tornando "impossível sintetizar uma voz humana", segundo Zhiyuan Yu, o estudante de doutoradodent pelo projeto. O objetivo do AntiFake vai além de impedir o treinamento não autorizado de IA, visando também prevenir a criação de deepfakes, uma preocupação crescente na era da desinformação impulsionada por IA.

Um apelo ao uso ético de dados

À medida que essas soluções de software evoluem, a discussão em torno do uso ético de dados para IA permanece fundamental. Jordan Meyer, cofundador da Spawning, articulou o objetivo final: "A melhor solução seria um mundo em que todos os dados usados ​​para IA estivessem sujeitos a consentimento e pagamento". Os defensores dessa ideia esperam direcionar os desenvolvedores nessa direção, priorizando o consentimento e a equidade no uso de dados para IA.

Em conclusão, a colaboração entre artistas e pesquisadores está impulsionando o desenvolvimento de soluções de software inovadoras para combater a imitação de obras criativas por IA. As plataformas de software Glaze, Nightshade, Kudurru e AntiFake representam avanços significativos na proteção da propriedade intelectual em um mundo cada vez mais orientado por IA. Embora essas tecnologias forneçam mecanismos de defesa valiosos, elas também ressaltam a necessidade de discussões mais amplas sobre o uso ético de dados em inteligência artificial. À medida que artistas e criadores continuam a reivindicar seus direitos, o futuro da IA ​​e da propriedade intelectual se encaminha para uma evolução mais ética e equilibrada.

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan