A Internet Watch Foundation (IWF) está preocupada com o fato de que a prevalência de material de abuso sexual infantil (CSAM, na sigla em inglês) gerado por inteligência artificial na internet possa continuar a aumentar, impulsionada pelos avanços nas ferramentas de IA.
Leia também: Deepfakes criados com IA estão dificultando a proteção de crianças pelas autoridades americanas – reportagem
O órgão de segurança indicou que, à medida que as ferramentas de IA generativa se tornam mais sofisticadas, também se torna mais difícil distinguir entre imagens ou vídeos reais e conteúdo falso gerado por IA. Segundo a organização, as imagens geradas por IA a partir de 2024 tornaram-se mais "realistas" do que aquelas vistas pela primeira vez em 2023.
A Internet Watch Foundation observa um aumento no CSAM (Abuso de Mídia Digital)
A IWF está preocupada com a possibilidade de mais CSAM (material de abuso sexual infantil) gerado por IA (inteligência artificial) circular na internet, à medida que pervertidos se aproveitam dos avanços na tecnologia de IA, que tornam as ferramentas mais fáceis de usar e mais disseminadas. A organização de segurança já observou um aumento de CSAM gerado por IA na internet.
A organização já identificou casos de manipulação de CSAM (material de abuso sexual infantil), enquanto outros casos envolviam pornografia adulta com o uso do rosto de uma criança nas filmagens. Segundo a IWF, alguns dos conteúdos consistiam em vídeos com cerca de 20 segundos de duração.
O diretor de tecnologia da IWF, Dan Sexton, revelou que há chances de surgirem mais CSAM com IA se as ferramentas de vídeo com IA seguirem a mesma tendência das ferramentas de geração de imagens com IA, já que a tecnologia está crescendo em ritmo acelerado.
"Eu diria, com alguma cautela, que se seguir as mesmas tendências, veremos mais vídeos", disse ele.
Sexton acrescentou que também é bastante provável que os futuros vídeos de IA sejam de "maior qualidade e realismo"
Segundo analistas da IWF, a maioria dos vídeos analisados pela organização em um fórum obscuro frequentado por pedófilos eram deepfakes parciais. Nesses casos, modelos de IA disponíveis gratuitamente online foram utilizados para manipular as imagens, incluindo as de vítimas conhecidas de abuso sexual infantil, em vídeos de abuso sexual infantil e pornografia adulta já existentes.
A organização encontrou nove vídeos desse tipo, enquanto um pequeno número de vídeos produzidos inteiramente por IA apresentava qualidade básica.
(1/4) gerado por IA – No ano passado, fomos um dos primeiros a alertar sobre a proliferação de imagens realistas de abuso sexual infantil geradas por #IA pic.twitter.com/s4igkjHH78
— Internet Watch Foundation (IWF) (@IWFhotline) 22 de julho de 2024
O órgão de fiscalização quer criminalizar a produção de CSAM (material de abuso sexual infantil)
A IWF está agora pressionando por leis que criminalizem a produção desse material, incluindo a criação de guias para produzir esse conteúdo. Também deveria criminalizar o desenvolvimento de ferramentas e plataformas que permitam a criação de CSAM (material de abuso sexual infantil).
Isso ocorre após um estudo realizado este ano em um único fórum da dark web ter revelado a publicação de 12.000 novas imagens geradas por IA ao longo de um mês.
Segundo a IWF, nove em cada dez dessas imagens eram realistas e poderiam ser processadas de acordo com as mesmas leis do Reino Unido que abrangem casos reais de abuso sexual infantil online.
Leia também: Homem do Texas é condenado por comprar pornografia infantil com criptomoedas
No ano passado, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) afirmou ter recebido inúmeras denúncias de pervertidos que utilizavam inteligência artificial de diversas maneiras, como inserindo comandos de texto para criar imagens de abuso infantil. Em alguns casos, os predadores alteraram fotos previamente publicadas para torná-las sexualmente explícitas e abusivas.
A CEO da IWF, Susie Hargreaves, destacou a necessidade de regulamentar as ferramentas de IA generativa para limitar a proliferação do CSAM (Abuso Sexual Infantil).
“Sem os devidos controles, as ferramentas de IA generativa oferecem um terreno fértil para que predadores online realizem suas fantasias mais perversas e repugnantes”, disse Hargreaves.
Hargreaves acrescentou que a IWF estava começando a observar um aumento no compartilhamento e na venda de CSAM (material de abuso sexual infantil) em sites comerciais dedicados a esse tema.
Segundo o The Guardian, outra organização que opera uma linha direta para denúncias de abuso revelou ter encontrado CSAM (abuso sexual infantil) produzido por IA (inteligência artificial) à venda em plataformas online por criminosos.

