Uma avó de San Diego escapou por pouco de perder milhares de dólares em um golpe envolvendo clonagem de voz gerada por inteligência artificial que imitava a voz de seu amado neto. Odent ocorreu quando Maureen, uma avó da região norte do condado, recebeu uma ligação de um número desconhecido, inicialmente confundida com uma ligação de um número oculto de sua irmã. A voz do outro lado da linha soava assustadoramente parecida com a de seu neto, que parecia estar em sofrimento.
Enganação convincente de IA
A pessoa que ligou alegou ser o neto dela e informou Maureen que ele havia se envolvido em umdentde carro, estava usando um colar cervical e estava a caminho da delegacia. Ele solicitou urgentemente US$ 8.200 para a fiança. A voz enganosa, gerada por inteligência artificial, era tão convincente que Maureen não hesitou em acreditar que era seu neto. Um suposto advogado também participou da ligação, dando credibilidade ao golpe ao afirmar que o neto dela havia atropelado um diplomata nodent, enfatizando a necessidade de sigilo por 72 horas.
Temendo pela segurança do neto, Maureen caiu no golpe. Ela juntou às pressas o suposto dinheiro da fiança e correu para o banco para sacar mais. No entanto, antes de entregar o cashque havia ganho com tanto esforço, ela sabiamente contatou a filha para verificar se o neto estava bem. Para seu alívio, descobriu que o neto estava seguro, participando de um torneio de golfe. Essa revelação enfureceu o golpista, que desabafou sua raiva em uma ligação posterior para a filha de Maureen.
Golpes com inteligência artificial estão em ascensão.
Golpes de falsificação de identidade, como o "golpe da vovó", envolvem golpistas se passando por pessoas de confiança para enganar as vítimas e levá-las a enviar dinheiro sob falsas alegações de emergência. Essa tendência, especialmente entre idosos, está aumentando e é uma preocupação crescente para as autoridades. A inteligência artificial agrava o problema ao tornar a imitação de voz mais acessível e econômica.
Ferramentas de IA como ElevenLabs e Stable Diffusion podem manipular vozes e movimentos da boca, tornando cada vez mais difícil para as pessoas distinguir gravações de áudio ou vídeo autênticas de falsificações. De acordo com a Comissão Federal de Comércio (FTC), em 2022, os golpes de impostores foram o segundo tipo de golpe mais comum nos EUA, com mais de 36.000 casos relatados e mais de US$ 11 milhões em prejuízos atribuídos adentenvolvendo telefones celulares.
Proteção contra golpes de IA
Em resposta à crescente ameaça de golpes automatizados por inteligência artificial, a família de Maureen criou uma estratégia de proteção conhecida como "palavra de segurança". Essa palavra exclusiva é conhecida apenas pelos membros da família e serve como medida de verificação em caso de ligações suspeitas. O segredo é evitar compartilhar essa palavra por mensagem de texto ou e-mail e comunicá-la diretamente por telefone.
Maureen enfatizou o sofrimento emocional causado pelo golpe e expressou seu desejo de evitar que outras pessoas passem por experiências semelhantes. O uso de palavras de segurança e a comunicação direta por telefone são uma abordagem proativa para combater o crescente desafio da fraude impulsionada por inteligência artificial.
A história da avó Maureen, que quase foi vítima de um golpe de clonagem de voz gerado por inteligência artificial, destaca a crescente sofisticação dos fraudadores. À medida que a tecnologia de IA evolui, torna-se imprescindível que indivíduos e famílias adotem medidas de proteção, como palavras-chave e comunicação telefônica direta, para se resguardarem do sofrimento emocional e financeiro causado por esses golpes enganosos.

