Em resposta às crescentes preocupações com a proliferação de conteúdo gerado por IA, as principais empresas de tecnologia anunciaram iniciativas destinadas a detectar e rotular esse tipo de conteúdo.
Esses esforços surgem na sequência de incidentes dent o escândalo de pornografia deepfake envolvendo Taylor Swift e a disseminação de deepfakes políticos.
As grandes empresas de tecnologia colaboram para rotular e detectar conteúdo gerado por IA.
A Meta, anteriormente conhecida como Facebook, anunciou planos para rotular imagens geradas por IA em suas plataformas, incluindo Facebook, Instagram e Threads. Esses rótulos, marcadores visíveis, marcas d'água invisíveis e metadados incorporados aos arquivos de imagem visam aumentar a transparência e a responsabilidade em relação à origem do conteúdo.
O Google, por outro lado, juntou-se ao comitê diretivo da C2PA (Content Authenticity Initiative), endossando um protocolo de internet de código aberto projetado para fornecer "rótulos nutricionais" de conteúdo. Essa iniciativa representa um esforço colaborativo entre gigantes da tecnologia para estabelecer padrões em toda a indústria para a detecção de conteúdo gerado por IA.
A OpenAI implementa medidas de proveniência de conteúdo
A OpenAI também implementou medidas para lidar com o problema. Ela adicionará marcas d'água aos metadados das imagens geradas com seus modelos de IA, ChatGPT e DALL-E 3, fornecendo um rótulo visível que indica o envolvimento da IA na criação do conteúdo.
Embora esses métodos representem um avanço, eles não são infalíveis, e ainda existem desafios na rotulagem e detecção de vídeos, áudios e textos gerados por IA.
Desafios e perspectivas futuras
Apesar dos avanços na rotulagem de conteúdo e na marca d'água, as limitações técnicas persistem. As marcas d'água em metadados podem ser contornadas com capturas de tela, enquanto os rótulos visuais são suscetíveis a recortes ou edições. Marcas d'água invisíveis, como o SynthID do Google, oferecem maior resiliência, mas não estão isentas de desafios.
Necessidade de marcos regulatórios
Além das medidas voluntárias, os marcos regulatórios estão ganhando trac. Iniciativas como a Lei de IA da UE e a Lei de Serviços Digitais exigem a divulgação de conteúdo gerado por IA e a remoção acelerada de conteúdo prejudicial. Os legisladores dos EUA também estão considerando regras vinculativas sobre deepfakes, com a Comissão Federal de Comunicações (FCC) tendo recentemente proibido o uso de IA em chamadas automáticas.
Embora as diretrizes voluntárias representem um passo na direção certa, ainda existem preocupações quanto à responsabilidade do setor. O histórico de autorregulamentação do setor de tecnologia levanta dúvidas sobre a eficácia das medidas voluntárias. No entanto, os anúncios recentes sinalizam um progresso em comparação com a inércia anterior.

