Your bank is using your money. You’re getting the scraps.WATCH FREE

Abuela alerta a la policía contra estafa de clonación de voz con IA

En esta publicación:

  • Las estafas de clonación de voz impulsadas por inteligencia artificial son cada vez más convincentes y representan una amenaza grave.
  • Las estafas de suplantación de identidad, como la "estafa de la abuela", están aumentando, especialmente entre los ancianos.
  • Las medidas de protección, como las palabras seguras y la comunicación telefónica directa, son esenciales para combatir el engaño impulsado por la IA.

Una abuela de San Diego estuvo a punto de perder miles de dólares en una estafa que implicaba clonación de voz generada por IA que imitaba a su querido nieto. Eldent ocurrió cuando Maureen, una abuela del norte del condado, recibió una llamada de un número anónimo, que inicialmente confundieron con la llamada oculta de su hermana. La voz del otro lado sonaba inquietantemente parecida a la de su angustiado nieto.

Engaño convincente de IA

La persona que llamó afirmó ser su nieto e informó a Maureen que había sufrido undentde coche, llevaba un collarín y se dirigía a la comisaría. Solicitó urgentemente una fianza de 8200 dólares. La voz engañosa generada por IA fue tan convincente que Maureen no dudó en creer que era su nieto. Un supuesto abogado también se unió a la llamada, lo que reforzó la credibilidad de la estafa al afirmar que su nieto había atropellado a un diplomático en eldent, insistiendo en la necesidad de mantener el secreto durante 72 horas.

Temiendo por la seguridad de su nieto, Maureen cayó en la estafa. Reunió rápidamente el supuesto dinero de la fianza y fue al banco a buscar más. Sin embargo, antes de entregar cashque tanto le había costado ganar, tuvo la prudencia de contactar a su hija para verificar el bienestar de su nieto. Para su alivio, descubrió que su verdadero nieto estaba a salvo, asistiendo a un torneo de golf. Esta revelación enfureció al estafador, quien desahogó su ira durante una llamada posterior con la hija de Maureen.

Véase también  Coinbase quiere incorporar millones de usuarios a la cadena de bloques con el lanzamiento de Wallet Quest.

Las estafas impulsadas por IA están en aumento

Las estafas de suplantación de identidad, como la "estafa de la abuela", consisten en estafadores que se hacen pasar por personas de confianza para engañar a las víctimas y conseguir que envíen dinero debido a emergencias inventadas. Esta tendencia, especialmente entre las personas mayores, está en aumento y constituye una preocupación creciente para las fuerzas del orden. La inteligencia artificial agrava el problema al hacer que la imitación de voz sea más accesible y rentable.

Herramientas de IA como ElevenLabs y Stable Diffusion pueden manipular voces y movimientos bucales, lo que dificulta cada vez más distinguir grabaciones de audio o video auténticas de falsificaciones. Según la Comisión Federal de Comercio, en 2022, las estafas de impostores ocuparon el segundo lugar en prevalencia en EE. UU., con más de 36 000 casos reportados y más de 11 millones de dólares en pérdidas atribuidas adenttelefónicos.

Protección contra las estafas de IA

En respuesta a la creciente amenaza de estafas basadas en IA, la familia de Maureen ideó una estrategia de protección conocida como "palabra de seguridad". Esta palabra única, conocida solo por los familiares, sirve como medida de verificación en caso de llamadas sospechosas. La clave es evitar compartirla por mensaje de texto o correo electrónico y comunicarla directamente por teléfono.

Maureen enfatizó la angustia emocional causada por la estafa y expresó su deseo de evitar que otras personas pasen por experiencias similares. El uso de palabras de seguridad y la comunicación telefónica directa es una estrategia proactiva para contrarrestar el creciente desafío del engaño impulsado por la IA.

Véase también ¿  Por qué las plataformas de intercambio de criptomonedas marcan como sospechosos a los mezcladores de monedas y está justificado?

La historia del encuentro de la abuela Maureen con una estafa de clonación de voz generada por IA pone de relieve la creciente sofisticación de los estafadores. A medida que la tecnología de IA evoluciona, es imperativo que las personas y las familias adopten medidas de protección, como palabras de seguridad y comunicación telefónica directa, para protegerse del sufrimiento emocional y financiero que causan estas estafas engañosas.

No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan