Una abuela de San Diego estuvo a punto de perder miles de dólares en una estafa que implicaba clonación de voz generada por IA que imitaba a su querido nieto. Eldent ocurrió cuando Maureen, una abuela del norte del condado, recibió una llamada de un número anónimo, que inicialmente confundieron con la llamada oculta de su hermana. La voz del otro lado sonaba inquietantemente parecida a la de su angustiado nieto.
Engaño convincente de IA
La persona que llamó afirmó ser su nieto e informó a Maureen que había sufrido undentde coche, llevaba un collarín y se dirigía a la comisaría. Solicitó urgentemente una fianza de 8200 dólares. La voz engañosa generada por IA fue tan convincente que Maureen no dudó en creer que era su nieto. Un supuesto abogado también se unió a la llamada, lo que reforzó la credibilidad de la estafa al afirmar que su nieto había atropellado a un diplomático en eldent, insistiendo en la necesidad de mantener el secreto durante 72 horas.
Temiendo por la seguridad de su nieto, Maureen cayó en la estafa. Reunió rápidamente el supuesto dinero de la fianza y fue al banco a buscar más. Sin embargo, antes de entregar cashque tanto le había costado ganar, tuvo la prudencia de contactar a su hija para verificar el bienestar de su nieto. Para su alivio, descubrió que su verdadero nieto estaba a salvo, asistiendo a un torneo de golf. Esta revelación enfureció al estafador, quien desahogó su ira durante una llamada posterior con la hija de Maureen.
Las estafas impulsadas por IA están en aumento
Las estafas de suplantación de identidad, como la "estafa de la abuela", consisten en estafadores que se hacen pasar por personas de confianza para engañar a las víctimas y conseguir que envíen dinero debido a emergencias inventadas. Esta tendencia, especialmente entre las personas mayores, está en aumento y constituye una preocupación creciente para las fuerzas del orden. La inteligencia artificial agrava el problema al hacer que la imitación de voz sea más accesible y rentable.
Herramientas de IA como ElevenLabs y Stable Diffusion pueden manipular voces y movimientos bucales, lo que dificulta cada vez más distinguir grabaciones de audio o video auténticas de falsificaciones. Según la Comisión Federal de Comercio, en 2022, las estafas de impostores ocuparon el segundo lugar en prevalencia en EE. UU., con más de 36 000 casos reportados y más de 11 millones de dólares en pérdidas atribuidas adenttelefónicos.
Protección contra las estafas de IA
En respuesta a la creciente amenaza de estafas basadas en IA, la familia de Maureen ideó una estrategia de protección conocida como "palabra de seguridad". Esta palabra única, conocida solo por los familiares, sirve como medida de verificación en caso de llamadas sospechosas. La clave es evitar compartirla por mensaje de texto o correo electrónico y comunicarla directamente por teléfono.
Maureen enfatizó la angustia emocional causada por la estafa y expresó su deseo de evitar que otras personas pasen por experiencias similares. El uso de palabras de seguridad y la comunicación telefónica directa es una estrategia proactiva para contrarrestar el creciente desafío del engaño impulsado por la IA.
La historia del encuentro de la abuela Maureen con una estafa de clonación de voz generada por IA pone de relieve la creciente sofisticación de los estafadores. A medida que la tecnología de IA evoluciona, es imperativo que las personas y las familias adopten medidas de protección, como palabras de seguridad y comunicación telefónica directa, para protegerse del sufrimiento emocional y financiero que causan estas estafas engañosas.

