Gran Bretaña contrata a Microsoft para la detección de deepfakes en medio del auge de la IA

- Gran Bretaña se asocia con Microsoft para establecer estándares para herramientas de detección de deepfakes.
- El marco apunta a las amenazas de fraude, abuso y suplantación de identidad en línea.
- Los reguladores investigan las plataformas de inteligencia artificial por imágenes no consensuadas.
Gran Bretaña ha anunciado planes para trabajar con Microsoft, académicos y expertos técnicos para construir un sistema de detección de deepfakes, a medida que crece la preocupación por la escala del engaño generado por IA en línea.
La iniciativa coloca a los deepfake, la IA, Gran Bretaña, Microsoft y los sistemas de detección en el centro de un nuevo impulso para frenar el contenido dañino que se está volviendo cada vez más realista y más difícil de detectar.
Gran Bretaña lucha contra el fraude y las imágenes no consentidas
Según el gobierno, la asociación desarrollará un marco de evaluación para la detección de deepfakes, que creará un conjunto de estándares compartidos para evaluar dispositivos de detección de circuitos en busca de archivos de audio, video e imágenes alterados.
Además de proporcionar un punto de referencia para este tipo de dispositivos de detección frente a ejemplos reales de uso (fraude y suplantación de identidad), así como imágenes o vídeos de explotación sexual de niños.
La ministra de Tecnología, Liz Kendall, advirtió que este riesgo no existe sólo en teoría.
Los delincuentes utilizan deepfakes para engañar al público, aprovecharse de mujeres y niñas, y restar credibilidad a lo que vemos y oímos. Y esto continuará hasta que tomemos medidas para proteger a los ciudadanos y a las instituciones democráticas de la manipulación
Kendall
La manipulación de medios ha existido durante décadas. Sin embargo, los expertos afirman que, con el desarrollo de la IA, el dinero y la habilidad necesarios para producir una falsificación son más accesibles que nunca.
En el Reino Unido, hay un enfoque cada vez mayor en el acto delictivo de producir imágenes íntimas sin consentimiento como resultado directo del rápido aumento en el número de imágenes falsas producidas por IA.
Según datos del gobierno, en 2025 se produjeron ocho millones de imágenes falsas como deepfakes, en comparación con solo 500.000 en 2023. Esto demuestra la rapidez con la que se crean este tipo de imágenes.
El marco se ha creado para permitir a las autoridades detectar, prevenir y procesar este delito y para proporcionar a la industria un conjunto claro de expectativas respecto de las normas de seguridad.
Esta es una medida que se ha instado a los gobiernos a adoptar, y Microsoft solicitó al Congreso que en 2024 aprobara una nueva legislación dirigida a los deepfakes. Brad Smith, vicepresidente y presidentedent Microsoft, había enfatizado la urgencia de que los legisladores abordaran la creciente amenaza de la tecnología deepfake.
En su blog, Smith destacó la importancia de adaptar las leyes para abordar el fraude de deepfakes y prevenir su explotación. Según Smith, debería existir una ley que permita sancionar las estafas y fraudes relacionados con deepfakes.
Según el informe de Microsoft, se pueden tomar diversas medidas legales para prevenir el uso indebido de la tecnología deepfake. Una de las sugerencias es crear una ley federal contra el fraude deepfake
Presionar a las plataformas mediante la regulación
En todo el mundo, los reguladores están teniendo dificultades para mantenerse al día con los rápidos avances de la tecnología de IA.
En el Reino Unido, tanto la oficina que regula las comunicaciones (el "Regulador de Comunicaciones") como la oficina que regula la privacidad (el "Regulador de Privacidad") han comenzado a investigar el chatbot Grok, operado por Elon Musk, debido a que el chatbot produjo imágenes sexualizadas de niños sin su consentimiento.
Como parte de esta investigación, los dos organismos reguladores trabajarán juntos para desarrollar un nuevo marco para ayudar a las agencias policiales y reguladoras a establecer estándares consistentes sobre cómo evaluar las herramientas de detección utilizadas por las agencias policiales y reguladoras.
Según Kendall, el propósito de este nuevo marco es “promover la restauración de la confianza en lo que las personas ven y escuchan en línea” y exigir que todos los proveedores de tecnología asuman la responsabilidad de mitigar el daño potencial relacionado con el uso acelerado de las tecnologías de IA.
Tu banco está usando tu dinero. Tú solo recibes las sobras. Mira nuestro video gratuito sobre cómo convertirte en tu propio banco.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)














