A Meta, anteriormente conhecida como Facebook, revelou uma política ampliada para lidar com os desafios associados à proliferação de gerado por IA em suas plataformas, incluindo Facebook, Instagram e Threads.
Em resposta ao crescente uso de inteligência artificial generativa, a empresa agora implementará avisos em imagens geradas por IA para informar os usuários sobre sua origem artificial. Embora essa medida seja vista como um passo positivo, ainda existem preocupações sobre sua eficácia no combate a agentes maliciosos e sobre as limitações da tecnologia.
Etiquetas de aviso em imagens geradas por IA
A mais recente mudança na política da Meta envolve a etiquetagem de imagens geradas por IA, sejam elas criadas com suas próprias ferramentas de IA generativa ou fornecidas por outras empresas, com rótulos indicando sua natureza artificial. Essa medida visa reduzir o risco de disseminação de desinformação e informações falsas por meio de imagens geradas por IA que são apresentadas como fotos reais.
A Meta vem rotulando as imagens produzidas por sua IA como "Imaginadas com IA", principalmentedenta marca d'água digital incorporada por seus algoritmos na imagem final.
Desafios e limitações
Apesar do compromisso da Meta em implementar esses avisos, desafios significativos ainda persistem. Um desafio notável é que muitas ferramentas de geração de imagens por IA não adicionam marcas d'água aos seus resultados, facilitando a manipulação e disseminação de conteúdo gerado por IA por agentes maliciosos sem o devido conhecimento.
Além disso, a tecnologia para detectar e rotular imagens geradas por IA de forma confiável ainda está em desenvolvimento, e não existe um padrão universalmente adotado.
A Coalizão para Proveniência e Autenticidade de Conteúdo (C2PA), uma iniciativa fundada pela Adobe, tem tentado alinhar o trabalho das empresas em relação à proveniência do conteúdo. No entanto, a tecnologia desenvolvida até o momento não é infalível.
Pesquisadores demonstraram a facilidade com que as marcas d'água podem ser quebradas ou adicionadas a imagens não geradas por IA, comprometendo sua eficácia.
Hany Farid, professor da Escola de Informação da UC Berkeley e consultor da iniciativa C2PA, alerta que agentes mal-intencionados podem usar ferramentas de IA que não adicionam marca d'água aos seus resultados para enganar ainda mais os usuários.
Ele sugere que uma combinação dedent, como marcas d'água e tecnologia, pode ser necessária para identificar de forma robustadentconteúdo gerado por IA. A marcação d'água é menos desenvolvida para mídias geradas por IA além de imagens, como áudio e vídeo.
Ampliação das políticas e da supervisão
Embora as novas políticas da Meta representem um avanço no combate a conteúdo falso, elas não se limitam a material gerado por IA. O Conselho de Supervisão da empresa, composto por especialistasdent , recentemente confirmou a decisão da Meta de manter no ar um vídeo dodent Joe Biden que havia sido editado para criar uma impressão enganosa.
Essa decisão destaca a necessidade de a Meta revisar e expandir suas regras para "mídia manipulada" de forma a abranger mais do que apenas conteúdo gerado por IA.
O porta-voz da Meta, Kevin McAlister, reconhece a necessidade de uma abordagem mais abrangente, afirmando: "Embora as empresas estejam começando a incluir sinais em seus geradores de imagem, elas ainda não começaram a incluí-los em ferramentas de IA que geram áudio e vídeo na mesma escala."
Sendo assim, a Meta está trabalhando para adicionar um recurso que permita aos usuários informar quando compartilham vídeos ou áudios gerados por IA, para que os rótulos apropriados possam ser aplicados.

