Michael Saylor, le président exécutif de MicroStrategy, a révélé que son équipe lutte activement contre la prolifération de fausses vidéos de lui générées par l'intelligence artificielle (IA), dont beaucoup sont conçues pour promouvoir des escroqueries liées Bitcoin.
Saylor a révélé qu'ils travaillent sans relâche pour supprimer environ 80 vidéos truquées par jour, qui attirent souvent des personnes sans méfiance dans des arnaques.
⚠️ Attention ⚠️ Il n'existe aucun moyen sans risque de doubler vos #bitcoins , et @MicroStrategy ne distribue pas de $BTC à ceux qui scannent un code-barres. Mon équipe supprime environ 80 fausses @YouTube bitcoin chaque jour, mais les escrocs continuent d'en publier. Ne faites pas confiance, vérifiez. pic.twitter.com/gqZkQW02Ji
— Michael Saylor⚡️ (@saylor) 13 janvier 2024
Dans un récent message publié sur X (anciennement Twitter), Michael Saylor, qui compte 3,2 millions d'abonnés, a tiré la sonnette d'alarme concernant la prolifération alarmante de vidéos truquées (deepfakes) sur YouTube. Il a mis en garde ses abonnés, affirmant que ces « escrocs ne cessent de diffuser » de nouvelles vidéos trompeuses.
Saylor a souligné qu'il n'existe aucun moyen légitime de doubler ses avoirs Bitcoin , et que MicroStrategy ne participe à aucune activité impliquant des distributions de BTC par le biais de la lecture de codes QR.
Cet avertissement fait suite à une forte augmentation des signalements d'utilisateurs de X ayant été exposés à des vidéos générées par IA présentant faussement Saylor comme promettant de doubler les investissements Bitcoin . Ces vidéos incitent les spectateurs à scanner des codes QR, ce qui entraîne le transfert de BTC vers l'adresse de l'escroc.
Cette tendance alarmante fait écho à une situation similaire survenue en 2022, où de nombreuses fausses vidéos mettant en scène Elon Musk ont circulé sur la plateforme de partage de vidéos, ciblant les passionnés de cryptomonnaies.
Une lutte permanente contre les deepfakes
La menace des truquées (deepfakes ) ne se limite pas à Michael Saylor. Début janvier, une vidéo truquée mettant en scène Anatoly Yakovenko, cofondateur de la Solana , a commencé à circuler sur YouTube et divers réseaux sociaux.
Austin Federa, responsable de la stratégie à la Fondation Solana , a commenté la recrudescence des deepfakes, notant qu'il y a eu une augmentation significative des contenus générés par l'IA de cette nature ces derniers temps.
Le combat de Michael Saylor contre les vidéos truquées générées par l'IA met en lumière une préoccupation croissante dans le paysage numérique. Ces vidéos convaincantes, mais frauduleuses, représentent un risque important pour les personnes susceptibles d'être victimes d'escroqueries aux cryptomonnaies. Bien que Saylor et son équipe travaillent sans relâche pour supprimer ces vidéos, le problème dépasse le cadre des efforts d'un seul individu.
La nature complexe de la détection des deepfakes
Détecter et combattre les vidéos truquées (deepfakes) est complexe en raison de la technologie avancée utilisée pour leur création. Les algorithmes de deepfake emploient des techniques d'IA sophistiquées pour manipuler le contenu audio et vidéo, rendant extrêmement difficile la distinction entre les images authentiques et truquées.
Les méthodes traditionnelles de modération de contenu peinent souvent à suivre le rythme de l'évolution rapide de la technologie des deepfakes.
Pour lutter contre l'épidémie de deepfakes, une collaboration entre les entreprises technologiques, les plateformes de médias sociaux et la communauté en ligne au sens large est indispensable. Le développement d'outils d'IA performants, spécifiquement conçus pour la détection des deepfakes, est essentiel pourdentet supprimer rapidement les contenus frauduleux.
Outre les solutions technologiques, il est crucial de sensibiliser le public à l'existence des vidéos truquées (deepfakes) et à leurs dangers potentiels. Les utilisateurs doivent faire preuve de prudence face à des affirmations ou des demandes de transfert de cryptomonnaies inhabituelles, surtout si elles proviennent de sources inconnues.

