Imagens geradas por IA podem te enganar, fazendo você perceber conteúdo falso como original. É por isso que a OpenAI, desenvolvedora do ChatGPT, criou uma ferramenta capaz de determinar se uma imagem foi gerada pelo DALL-E 3, o único algoritmo de geração de imagens desenvolvido por eles.
Na terça-feira, a OpenAI deu aos usuários a primeira oportunidade de testar uma ferramenta de detecção de imagens composta por modelos básicos e otimizados. O objetivo é envolver pesquisadores independentes para examinar a complexidade, a utilidade, as possíveis aplicações e os fatores que podem influenciar o conteúdo gerado por IA.
Taxa de sucesso e testes da ferramenta
A OpenAI testou a ferramenta internamente e, em alguns aspectos, os resultados foram encorajadores, enquanto, por outro lado, foram muito decepcionantes. A avaliação das imagens produzidas pelo DALL-E 3 resultou em 98% de acertos. Além disso, ao analisar imagens que não foram produzidas pelo DALL-E 3, o sistema as atribuiu erroneamente ao DALL-E 3 em apenas 0,5% dos casos.
A OpenAI não encontrou nenhuma modificação na imagem com uma diferença ligeiramente significativa. A equipe interna testou a ferramenta comprimindo, recortando e introduzindo alterações de saturação na imagem criada pelo DALL-E 3 e observou que a ferramenta ainda conseguiu atingir um bom nível de sucesso.
Desafios e limitações
Infelizmente, a ferramenta não se mostrou muito eficaz com imagens que haviam sido processadas extensivamente. A redação deste artigo da OpenAI não deixa claro quantas modificações foram feitas nos casos descritos, e eles afirmam que “outras modificações podem reduzir o desempenho”
Em entrevista ao The Wall Street Journal, a pesquisadora Sandhini Agarwal afirmou que a ferramenta era menos eficaz em situações como a alteração da tonalidade da imagem e que era necessária uma assinatura. Como Agarwal mencionou, para lidar com esses tipos de problemas, a OpenAI contratará testadores externos para o sistema.
Além disso, os testes internos também questionaram a capacidade da ferramenta de analisar imagens criadas com modelos de IA de outras empresas. Nessas situações, a ferramenta da OpenAI conseguiu reconhecer apenas 5% ou 10% das imagens em comparação com modelos diferentes. Modificações nessas imagens, como alterações de matiz, também diminuíram significativamente a eficiência, disse Agarwal ao jornal.
As imagens geradas por IA não são apenas artificiais, mas também representam um problema neste ano eleitoral. Grupos descontentes, tanto dentro como fora de um país, podem facilmente usar essas fotos para difamar um político em ascensão ou uma causa em defesa. Atualmente, com o desenvolvimento contínuo dos geradores de imagens por IA, a linha que separa a realidade da fantasia está mais tênue do que nunca.
Adoção pela indústria
Por outro lado, a OpenAI busca adicionar marcas d'água aos metadados de imagens geradas por IA, à medida que as empresas se tornam membros da User Value Organization (UVG). A C2PA pertence a uma iniciativa da indústria de tecnologia que estabelece padrões técnicos para revelar a origem do conteúdo e sua autenticidade, em um processo conhecido como marca d'água. A gigante do Facebook, Meta, anunciou no início deste mês que sua IA será rotulada de acordo com o padrão C2PA a partir de maio.

