Une veuve britannique perd plus de 600 000 $ dans une escroquerie générée par une intelligence artificielle

- Une veuve britannique a perdu plus de 600 000 dollars après avoir été victime d'une escroquerie utilisant un deepfake généré par intelligence artificielle.
- L'escroc s'est fait passer pour la star hollywoodienne Jason Momoa et lui a promis une relation.
- Des célébrités ont appelé les autorités à enquêter sur la recrudescence de ces crimes.
Une Britannique a perdu plus de 600 000 dollars dans une escroquerie utilisant une intelligence artificielle. Les escrocs lui ont fait croire qu'elle entretenait une relation amoureuse avec l'acteur Jason Momoa. Selon les informations recueillies, ils lui ont envoyé plusieurs vidéos, réalisées par intelligence artificielle, dans lesquelles l'acteur tenait des propos divers.
D'après les informations recueillies, les escrocs ont utilisé ces images pour faire croire à la veuve britannique qu'elle pourrait vivre heureuse avec le beau gosse hollywoodien, affirmant que l'argent qu'elle envoyait servirait à construire leur maison de rêve à Hawaï.
La veuve britannique a entamé une relation après que la star hollywoodienne aurait répondu à ses commentaires sur l'une de ses pages de fans. Suite à ce premier contact, il a commencé à lui parler fréquemment et leur relation a évolué rapidement.
Une veuve britannique se fait escroquer par des arnaqueurs.
D'après la police, les escrocs, se faisant passer pour Jason Momoa, ont commencé à soutirer à la grand-mère cash. Il prétendait que sa fortune était investie dans plusieurs projets cinématographiques. La veuve britannique a finalement mis sa maison du Cambridgeshire en vente et a transféré plus d'un demi-million de livres sterling provenant de la vente à son prétendu petit ami. Après l'envoi de l'argent, les messages ont cessé et son escroc a disparu.
« Cela peut paraître invraisemblable, mais c'est une histoire vraie, et elle a laissé une femme vulnérable sans abri », a déclaré la police du Cambridgeshire.
La police a affirmé que les escrocs avaient déjà utilisé cette même arnaque sur d'autres victimes au Royaume-Uni et aux États-Unis. Elle a notamment indiqué qu'une Britannique s'était fait escroquer jusqu'à 80 000 £, l'escroc ayant employé la même technique d'arnaque sentimentale avec une star hollywoodienne pour duper sa victime sans méfiance.
La Britannique a affirmé avoir parlé avec sa fille, qui, selon elle, allait avoir 15 ans cette année. « On m'a aussi dit qu'il se battait avec son ex-femme pour la maison, et qu'il nous fallait un certificat de mariage pour la garder. Alors, naïve, j'ai payé », a-t-elle ajouté.
Dave York, agent de prévention de la fraude, a constaté que les escrocs ciblent toujours les personnes les plus vulnérables, notamment les veuves. Ils perçoivent leur désespoir à combler un manque dans leur vie, créant ainsi une opportunité pour les criminels.
Des célébrités dénoncent la montée en puissance des deepfakes générés par l'IA
Outre Jason Momoa, d'autres personnalités américaines ont vu leurs photos et vidéos utilisées par des criminels. Steve Harvey, le célèbre animateur de l'émission « Family Feud », en est un exemple frappant. L'année dernière, sa voix figurait parmi les célébrités dont les escrocs ont utilisé la leur pour promouvoir une arnaque promettant des fonds publics.
« Ça fait des mois que je vous dis de réclamer ces 6 400 $ gratuits », déclare une voix qui ressemble à celle de Harvey dans une vidéo. Cependant, Harvey a exhorté les autorités à enquêter sur cette affaire et à s'assurer que les responsables soient traduits en justice. « Ce qui m'inquiète maintenant, ce sont les personnes touchées. Je ne veux pas que mes fans, ni même les autres, soient lésés », a déclaré Harvey.
Depuis le début de l'année, on observe une forte augmentation des escroqueries utilisant l'intelligence artificielle. Selon un précédent rapport de Cryptopolitan, la Commission des valeurs mobilières du Nigeria a publié un communiqué mettant en garde le public contre l'utilisation de l'IA pour créer des deepfakes de personnalités publiques à des fins frauduleuses. Les escrocs créent ces vidéos truquées pour soutirer de l'argent, tandis que d'autres les utilisent pour promouvoir de faux placements.
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














