Une grand-mère de San Diego a échappé de justesse à une escroquerie de plusieurs milliers de dollars. L'arnaque consistait à utiliser une intelligence artificielle pour cloner la voix de son petit-fils adoré. L'dent s'est produit lorsque Maureen, une grand-mère du nord du comté, a reçu un appel d'un numéro inconnu, qu'elle a d'abord pris pour celui de sa sœur, qui appelait en numéro masqué. La voix à l'autre bout du fil ressemblait étrangement à celle de son petit-fils, visiblement en détresse.
Tromperie convaincante de l'IA
L'appelant prétendait être son petit-fils et informa Maureen qu'il avait eu undentde voiture, qu'il portait une minerve et qu'il était en route pour le poste de police. Il exigea en urgence 8 200 $ pour sa caution. La voix, générée par une intelligence artificielle, était si convaincante que Maureen n'hésita pas à croire qu'il s'agissait de son petit-fils. Un prétendu avocat se joignit à la conversation, renforçant la crédibilité de l'escroquerie en affirmant que son petit-fils avait percuté un diplomate lors de l'dentet en insistant sur la nécessité de garder le secret pendant 72 heures.
Craignant pour la sécurité de son petit-fils, Maureen s'est laissée prendre au piège. Elle a rassemblé à la hâte la somme censée constituer la caution et s'est précipitée à la banque pour en retirer davantage. Cependant, avant de remettre son cashdurement gagné, elle a sagement contacté sa fille pour s'assurer que son petit-fils allait bien. À son grand soulagement, elle a découvert que son petit-fils était sain et sauf, participant à un tournoi de golf. Cette révélation a rendu l'escroc furieux, qui a laissé éclater sa colère lors d'un appel ultérieur avec la fille de Maureen.
Les arnaques utilisant l'intelligence artificielle sont en hausse
Les escroqueries par usurpation d'identité, comme l'« arnaque à la grand-mère », consistent à se faire passer pour des personnes de confiance afin d'extorquer de l'argent à ses victimes sous prétexte d'urgences inventées de toutes pièces. Ce phénomène, particulièrement répandu chez les personnes âgées, est en hausse et représente une préoccupation croissante pour les forces de l'ordre. L'intelligence artificielle aggrave le problème en rendant l'imitation vocale plus accessible et moins coûteuse.
Les outils d'IA comme ElevenLabs et Stable Diffusion peuvent manipuler les voix et les mouvements des lèvres, ce qui rend de plus en plus difficile la distinction entre les enregistrements audio ou vidéo authentiques et les contrefaçons. Selon la Federal Trade Commission, en 2022, les escroqueries par usurpation d'identité représentaient la deuxième escroquerie la plus répandue aux États-Unis, avec plus de 36 000 cas signalés et plus de 11 millions de dollars de pertes attribuées auxdenttéléphoniques.
Se protéger contre les arnaques liées à l'IA
Face à la menace croissante des arnaques utilisant l'intelligence artificielle, la famille de Maureen a mis au point une stratégie de protection : le « mot de sécurité ». Ce mot unique, connu uniquement des membres de la famille, sert de vérification en cas d'appels suspects. L'important est de ne jamais le communiquer par SMS ou courriel et de le dire directement par téléphone.
Maureen a souligné la détresse émotionnelle causée par l'escroquerie et a exprimé son souhait d'épargner à d'autres de telles expériences. L'utilisation de mots de sécurité et la communication téléphonique directe constituent une approche proactive pour contrer le défi croissant que représente la tromperie alimentée par l'IA.
L'histoire de la mésaventure de grand-mère Maureen, victime d'une escroquerie par clonage vocal généré par une intelligence artificielle, met en lumière la sophistication croissante des fraudeurs. Face à l'évolution de l'IA, il devient impératif pour les particuliers et les familles d'adopter des mesures de protection telles que les mots de sécurité et la communication téléphonique directe afin de se prémunir contre les détresses émotionnelles et financières causées par ces arnaques.

