Michael Saylor, presidente ejecutivo de MicroStrategy, ha revelado que su equipo está combatiendo activamente la proliferación de vídeos falsos de él generados por inteligencia artificial (IA), muchos de los cuales están diseñados para promover estafas relacionadas con Bitcoin.
Saylor reveló que trabajan incansablemente para eliminar aproximadamente 80 videos deepfake diariamente, que a menudo atraen a personas desprevenidas a esquemas fraudulentos.
⚠️ Advertencia ⚠️ No hay forma de duplicar tus bitcoins sin riesgo , bitcoin @MicroStrategy no regala $BTC a quienes escanean un código de barras. Mi equipo elimina unos 80 videos falsos de YouTube cada día, pero los estafadores siguen publicando más. No confíes, verifica. pic.twitter.com/gqZkQW02Ji
—Michael Saylor⚡️ (@saylor) 13 de enero de 2024
En una publicación reciente en X (anteriormente Twitter), Michael Saylor, quien cuenta con una considerable cantidad de 3,2 millones de seguidores, alertó sobre la alarmante prevalencia de videos deepfake en YouTube. Advirtió a sus seguidores que estos "estafadores siguen publicando más" de estos videos engañosos.
Saylor enfatizó que no existe una forma legítima de duplicar las tenencias Bitcoin y MicroStrategy no participa en ninguna actividad que involucre obsequios de BTC mediante el escaneo de códigos QR.
La advertencia surge tras un aumento repentino de reportes de usuarios de X que se encontraron con videos generados por IA que retrataban falsamente a Saylor prometiendo duplicar las inversiones Bitcoin . Estos videos incitaban a los espectadores a escanear códigos QR, lo que finalmente resultaba en la transferencia de BTC a la dirección del estafador.
Esta alarmante tendencia se hace eco de una situación similar ocurrida en 2022, cuando circularon numerosos vídeos falsos con Elon Musk en la plataforma para compartir vídeos, dirigidos a los entusiastas de las criptomonedas.
Una batalla continua contra los deepfakes
La amenaza de deepfake no es exclusiva de Michael Saylor. A principios de enero, un vídeo deepfake protagonizado por Anatoly Yakovenko, cofundador de la Solana , comenzó a circular en YouTube y diversas redes sociales.
Austin Federa, director de estrategia de la Fundación Solana , comentó sobre el aumento de deepfakes y señaló que ha habido un aumento significativo en el contenido de esta naturaleza generado por IA en los últimos tiempos.
La lucha de Michael Saylor contra los vídeos deepfake generados por IA pone de manifiesto una creciente preocupación en el panorama digital. Estos vídeos, convincentes pero fraudulentos, suponen un riesgo significativo para quienes podrían ser víctimas de estafas con criptomonedas. Si bien Saylor y su equipo trabajan incansablemente para eliminarlos, el problema va más allá de los esfuerzos de una sola persona.
La naturaleza compleja de la detección de deepfakes
Detectar y combatir los videos deepfake es un desafío debido a la avanzada tecnología que los respalda. Los algoritmos deepfake emplean sofisticadas técnicas de IA para manipular el contenido de audio y video, lo que dificulta enormemente distinguir entre imágenes reales y falsas.
Los métodos tradicionales de moderación de contenidos a menudo tienen dificultades para seguir el ritmo de la rápida evolución de la tecnología deepfake.
Abordar la epidemia de deepfakes requiere esfuerzos de colaboración entre empresas tecnológicas, plataformas de redes sociales y la comunidad en línea en general. El desarrollo de herramientas robustas de IA diseñadas específicamente para la detección de deepfakes es esencial paradenty eliminar rápidamente el contenido fraudulento.
Además de las soluciones tecnológicas, es crucial concienciar al público sobre la existencia de vídeos deepfake y sus posibles peligros. Los usuarios deben tener precaución al encontrarse con afirmaciones o solicitudes de transferencias de criptomonedas extraordinarias, especialmente si provienen de fuentes desconocidas.

