COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Deepfakes de IA estão dificultando a proteção das crianças pelas autoridades dos EUA – relatório

Nesta postagem:

  • Os promotores dizem que deepfakes explícitos de IA em crianças são um pesadelo para a aplicação da lei.
  • As imagens são tão realistas que torna difícil saber se crianças reais foram abusadas.
  • Os relatos de abuso online de crianças atingiram 36 milhões no ano passado.

O grande volume de deepfakes de IA sexualmente explícitos de crianças está tornando difícil para as autoridades nos EUA separar as crianças em perigo da vida real das falsas, alertaram promotores e grupos de segurança. Eles dizem que as imagens são tão reais que se tornou difícil saber se crianças reais foram vítimas de abuso, relata o Guardian. .

Leia também: Poe, ursinho de pelúcia movido a ChatGPT, lê histórias de ninar para crianças

Kristina Korobov, advogada sênior de uma organização sem fins lucrativos de segurança infantil com sede em Minnesota, Zero Abuse Project, diz que o grupo começou a notar relatos de imagens de crianças reais feitas com IA, que não foram abusadas sexualmente. “Mas agora o rosto deles está em uma criança que foi abusada”, diz ela.

Promotor do DoJ diz que ‘estamos nos afogando’ devido à IA

“Às vezes, reconhecemos a roupa de cama ou o fundo de um vídeo ou imagem, o autor ou a série de onde vem, mas agora há o rosto de outra criança colocado nele”, disse Korobov, de acordo com o Guardian.

Os modelos de IA são capazes de produzir milhares de fotos e vídeos semelhantes a fotografias da vida real por dia. De acordo com o relatório, isso tornou mais fácil para os predadores usarem a tecnologia para comunicar conteúdo desagradável na dark web e na internet convencional.

Veja também  Builder apoiado pela Microsoft.

Para as autoridades, tornou-se um pesadelo. “Do ponto de vista da aplicação da lei, os crimes contra crianças são uma das áreas com maior escassez de recursos e haverá uma explosão de conteúdo de IA”, disse um promotor do Departamento de Justiça dos EUA (DoJ), acrescentando:

 

“Já estamos nos afogando nessas coisas.”

 

O Centro Nacional dos EUA para Crianças Desaparecidas e Exploradas ( NCMEC ) afirma que, em 2023, os relatos de abuso infantil online aumentaram 12%, para 36,2 milhões. Embora a maioria dos relatos estivesse relacionada com a circulação de fotos e vídeos da vida real de crianças vítimas de abuso sexual, o centro também recebeu 4.700 relatos de imagens ou vídeos falsos de IA envolvendo a exploração sexual de crianças.

O NCMEC disse que algumas das formas mais comuns pelas quais os predadores têm usado a IA incluem a edição de imagens online existentes para torná-las explícitas. Os criminosos também utilizam chatbots de inteligência artificial generativos que fornecem instruções gráficas sobre como recrutar crianças para abusos.

As leis atuais não vão longe o suficiente em deepfakes de IA

Parece haver uma lacuna no que pode ser considerado um crime. Em muitas jurisdições, possuir imagens que objetificam sexualmente crianças é crime, mas as leis ainda não avançaram para incorporar imagens geradas por IA.

“Ao acusar casos no sistema federal”, disse o promotor do DoJ, “a IA não muda o que podemos processar, mas há muitos estados onde é necessário provar que se trata de uma criança real”. O promotor acrescentou:

Veja também  nós e o Japão em palestras para investimentos em tecnologia e infraestrutura em larga escala

 

“Discussões sobre a legitimidade das imagens causarão problemas nos julgamentos. Se eu fosse advogado de defesa, seria exatamente isso que eu argumentaria.”

 

Mesmo que as leis sejam promulgadas, a tecnologia facilitadora ainda será necessária para capturar criminosos e, atualmente, existe uma grande lacuna. Grupos de segurança infantil alertaram que os departamentos de polícia provavelmente serão inundados com solicitações.

Leia também: Chefe da ONU alerta que IA torna a guerra nuclear mais provável

Imagens sexualmente explícitas de crianças geradas com IA começaram a aumentar a sua presença online por volta de 2022, coincidindo com o lançamento do ChatGPT pela OpenAI, de acordo com o relatório do Guardian.

O NCMEC acusa as empresas de IA de não fazerem o suficiente para impedir a geração e propagação de conteúdos exploratórios. No ano passado, apenas cinco empresas de IA apresentaram voluntariamente relatórios ao Centro. Em comparação, 70% das plataformas de mídia social compartilharam seus relatórios, afirmou.

Academia Cryptopolitan: em breve - uma nova maneira de obter renda passiva com DeFi em 2025. Saiba mais

Compartilhar link:

Isenção de responsabilidade. As informações fornecidas não são conselhos de negociação. Cryptopolitan.com não se responsabiliza por quaisquer investimentos feitos com base nas informações fornecidas nesta página. Recomendamos tron dent e /ou consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais Lidos

Carregando artigos mais lidos...

Fique por dentro das notícias sobre criptografia, receba atualizações diárias em sua caixa de entrada

Escolha do editor

Carregando artigos da Escolha do Editor...

- O boletim informativo criptográfico que o mantém à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Inscreva -se no Cryptopolitan diariamente e fique com as informações de criptografia oportunas, nítidas e relevantes diretamente para sua caixa de entrada.

Junte -se agora e
nunca perca um movimento.

Entre. Obtenha os fatos.
Siga em frente.

Assine o CryptoPolitan