O enorme volume de deepfakes de inteligência artificial com conteúdo sexual explícito envolvendo crianças está dificultando o trabalho das autoridades nos EUA para distinguir crianças reais em situação de vulnerabilidade daquelas criadas artificialmente, alertaram promotores e grupos de proteção à infância. Segundo eles, as imagens são tão realistas que se tornou difícil saber se crianças reais foram abusadas, relata o jornal The Guardian.
Leia também: O ursinho de pelúcia Poe, com tecnologia ChatGPT, lê histórias para crianças na hora de dormir.
Kristina Korobov, advogada sênior do Zero Abuse Project, uma organização sem fins lucrativos de proteção infantil com sede em Minnesota, afirma que o grupo começou a notar relatos de imagens de crianças reais criadas por inteligência artificial, que não sofreram abuso sexual. "Mas agora o rosto delas está no rosto de uma criança que foi abusada", diz ela.
Procurador do Departamento de Justiça afirma que 'estamos nos afogando' devido à IA
“Às vezes, reconhecemos a roupa de cama ou o fundo em um vídeo ou imagem, o autor do crime ou a série de onde vem, mas agora há o rosto de outra criança ali”, disse Korobov, segundo o The Guardian.
Os modelos de IA são capazes de gerar milhares de fotos e vídeos semelhantes a fotografias da vida real por dia. De acordo com o relatório, isso facilitou o uso dessa tecnologia por predadores para disseminar conteúdo indesejável na dark web e na internet convencional.
Para as autoridades, tornou-se um pesadelo. "Do ponto de vista da aplicação da lei, os crimes contra crianças são uma das áreas com mais recursos disponíveis, e haverá uma explosão de conteúdo proveniente de inteligência artificial", disse um procurador do Departamento de Justiça dos EUA (DoJ), acrescentando:
“Já estamos afogados nisso tudo.”
O Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA ( NCMEC ) afirma que, em 2023, as denúncias de abuso infantil online aumentaram 12%, chegando a 36,2 milhões. Embora a maioria das denúncias estivesse relacionada à circulação de fotos e vídeos reais de crianças abusadas sexualmente, o centro também recebeu 4.700 denúncias de imagens ou vídeos criados por inteligência artificial (deepfake) envolvendo a exploração sexual infantil.
O NCMEC afirmou que algumas das formas mais comuns pelas quais os predadores têm usado IA incluem a edição de imagens online existentes para torná-las explícitas. Criminosos também utilizam chatbots de inteligência artificial generativa que fornecem instruções gráficas sobre como recrutar crianças para abuso.
As leis atuais não são suficientemente abrangentes em relação aos deepfakes de IA
Parece haver uma lacuna no que pode ser considerado crime. Em muitas jurisdições, possuir imagens que objetificam sexualmente crianças é crime, mas as leis ainda não evoluíram para abranger imagens geradas por IA.
“Ao apresentar acusações no sistema federal”, disse o procurador do Departamento de Justiça, “a IA não altera o que podemos processar, mas há muitos estados em que é preciso provar que se trata de uma criança real”. O procurador acrescentou:
"Discutir a legitimidade das imagens causará problemas nos julgamentos. Se eu fosse advogado de defesa, seria exatamente isso que eu argumentaria."
Mesmo que as leis sejam promulgadas, a tecnologia necessária para capturar criminosos ainda será indispensável, e atualmente existe uma grande lacuna. Grupos de proteção à infância alertaram que os departamentos de polícia provavelmente serão inundados com solicitações.
Leia também: Chefe da ONU alerta que IA torna a guerra nuclear mais provável
Imagens sexualmente explícitas de crianças geradas com IA começaram a aumentar sua presença online por volta de 2022, coincidindo com o lançamento do ChatGPT pela OpenAI, de acordo com uma reportagem do The Guardian.
O NCMEC acusa as empresas de IA de não fazerem o suficiente para impedir a geração e disseminação de conteúdo exploratório. No ano passado, apenas cinco empresas de IA enviaram relatórios voluntariamente ao Centro. Em comparação, 70% das plataformas de mídia social compartilharam seus relatórios, afirmou o NCMEC.

