Ted Cruz pressiona portracacelerada de pornografia de vingança gerada por IA no Texas

- Ted Cruz está impulsionando um projeto de lei bipartidário para proibir a pornografia de vingança gerada por IA, obrigando as plataformas a removerem conteúdo deepfake em até 48 horas após serem notificadas.
- Vítimas como Elliston Berry, de 15 anos, relataram como imagens alteradas por inteligência artificial destruíram suas vidas, enquanto as plataformas falharam em agir com rapidez.
- Google, Meta e TikTok apoiam o projeto de lei, visto que o conteúdo pornográfico deepfake agora representa 98% de todo o conteúdo gerado por IA na internet.
A poucos dias do encerramento da sessão do Congresso, o senador do Texas, Ted Cruz, está fazendo um esforço de última hora para aprovar um projeto de lei que criminaliza a pornografia de vingança gerada por inteligência artificial.
A proposta, S.4569, visa combater os deepfakes — a tecnologia cada vez mais popular que sobrepõe o rosto de alguém em imagens ou vídeos pornográficos sem o seu consentimento. Se aprovada, a lei exigiria que sites e plataformas de mídia social removessem o conteúdo em até 48 horas após serem notificados pela vítima.
O projeto de lei também é bipartidário, co-patrocinado pela senadora democrata Amy Klobuchar, e foi aprovado por unanimidade no Senado em 3 de dezembro. Agora, todas as atenções estão voltadas para a Câmara, onde os parlamentares têm apenas alguns dias para aprovar o projeto de lei complementar, o HR 8989.
Em uma coletiva de imprensa realizada em 11 de dezembro, Cruz disse: “Toda vítima deve ter o direito de dizer: 'Essa sou eu. Essa é a minha imagem, e vocês não têm minha permissão para divulgar esse lixo'”
Vítimas se manifestam enquanto empresas de tecnologia apoiam o projeto de lei
Elliston Berry, uma garota de 15 anos cuja imagem alterada por inteligência artificial se espalhou como fogo em palha pelo Snapchat, compartilhou seu pesadelo no evento.
“Naquela manhã, quando acordei, foi uma das piores sensações que já senti”, disse ela, descrevendo como a imagem falsa circulou por nove meses antes que o gabinete de Cruz interviesse para removê-la. Os inúmeros esforços de sua família para que as plataformas agissem haviam fracassado.
A história de Berry não é única, e esse é o problema. A pornografia deepfake explodiu, deixando as vítimas lutando para recuperar sua privacidade enquanto as empresas de tecnologia tentam acompanhar o ritmo.
Para a mãe de Berry, conseguir falar com o gabinete de Cruz foi um ponto de virada. Foi necessária a intervenção direta de um senador americano para que uma grande plataforma de mídia social removesse o conteúdo. Para a maioria das vítimas, esse tipo de acesso não é uma opção.
As gigantes da tecnologia Google, Meta, Microsoft e TikTok estão apoiando a legislação de Cruz. Isso pode parecer surpreendente, mas a realidade é que elas estão sob crescente pressão para agir. Críticos há tempos denunciam as plataformas por sua lentidão na remoção de conteúdo deepfake. O projeto de lei de Cruz as força a agir: 48 horas, sem desculpas.
A senadora Klobuchar enfatizou a necessidade de agir agora. "Este trabalho visa construir um futuro, enfrentar os desafios do novo ambiente em que vivemos e não simplesmente fingir que isso não está mais acontecendo."
Um problema que ninguém pode ignorar
A inteligência artificial tornou a criação de deepfakes assustadoramente simples. Ferramentas que antes exigiam habilidades e recursos avançados agora estão disponíveis para qualquer pessoa com um laptop e acesso à internet. Não é coincidência que 98% de todo o conteúdo deepfake online seja pornográfico.
Os números são chocantes. Este ano, o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) identificou 4.700 casos de material de abuso sexual infantil (CSAM) gerado por inteligência artificial.
A tecnologia também alimenta os recantos mais obscuros da internet. Um caso recente em Wisconsin resultou na prisão de um homem de 42 anos por criar e distribuir milhares de imagens explícitas de menores geradas por IA. Outro caso envolveu um psiquiatra infantil condenado a 40 anos de prisão por usar IA para gerar imagens alteradas de crianças reais.
A pornografia deepfake não se limita a menores de idade. Celebridades, influenciadores e pessoas comuns estão sendo alvos em taxas alarmantes. Qualquer pessoa com uma imagem pública — ou mesmo uma conta em redes sociais — pode se tornar vítima. Sem leis federais em vigor, as vítimas têm poucos recursos.
A inteligência artificial está ficando cada vez mais inteligente. Se os legisladores não agirem agora, os danos só aumentarão. Os legisladores sabem disso, e as vítimas também. Agora, cabe ao Congresso decidir se vai reagir ou deixar a crise dos deepfakes continuar sem controle.
Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis.
Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrona realização de pesquisas independentesdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)















