Le Royaume-Uni fait appel à Microsoft pour la détection des deepfakes face à l'essor de l'IA

- Le Royaume-Uni s'associe à Microsoft pour établir des normes pour les outils de détection des deepfakes.
- Ce cadre de référence vise à cibler les menaces de fraude, d'abus et d'usurpation d'identité en ligne.
- Les autorités de régulation enquêtent sur les plateformes d'IA au sujet d'images non consensuelles.
La Grande-Bretagne a annoncé son intention de collaborer avec Microsoft, des universitaires et des experts techniques pour mettre au point un système de détection des deepfakes, face à l'inquiétude croissante suscitée par l'ampleur des tromperies générées en ligne par l'IA.
Cette initiative place les deepfakes, l'IA, la Grande-Bretagne, Microsoft et les systèmes de détection au cœur d'une nouvelle offensive visant à endiguer les contenus nuisibles qui deviennent de plus en plus réalistes et difficiles à repérer.
La Grande-Bretagne cible la fraude et les images non consensuelles
Selon le gouvernement, ce partenariat permettra de développer un cadre d'évaluation de la détection des deepfakes, qui créera un ensemble de normes partagées pour l'évaluation des dispositifs de détection de circuits pour les fichiers audio, vidéo et image altérés.
En plus de fournir un point de référence pour ces types de dispositifs de détection par rapport à des exemples d'utilisation réels (fraude et usurpation d'identité) ainsi qu'à des images ou des vidéos d'exploitation sexuelle d'enfants.
La ministre des Technologies, Liz Kendall, a averti que ce risque n'existe pas seulement en théorie.
« Les deepfakes sont utilisés par des criminels pour tromper le public, exploiter les femmes et les filles et discréditer ce que nous voyons et entendons. Et cela continuera tant que nous n'aurons pas pris de mesures pour protéger les citoyens et les institutions démocratiques contre la manipulation. »
Kendall
La manipulation de supports existe depuis des décennies. Cependant, les experts affirment qu'avec le développement de l'IA, les moyens financiers et les compétences nécessaires à la production d'un faux sont plus accessibles que jamais.
Au Royaume-Uni, l'attention se porte de plus en plus sur l'acte criminel de production d'images intimes sans consentement, en raison directe de l'augmentation rapide du nombre de fausses images produites par l'IA.
D'après les données gouvernementales, huit millions de fausses images ont été produites sous forme de deepfakes en 2025, contre seulement 500 000 en 2023. Cela montre à quelle vitesse ce type d'images se crée.
Ce cadre a été créé pour permettre aux forces de l'ordre de détecter, de prévenir et de poursuivre ce crime, et pour fournir à l'industrie un ensemble clair d'attentes concernant les réglementations en matière de sécurité.
Il s'agit d'une mesure que les gouvernements ont été incités à prendre, et Microsoft a appelé le Congrès en 2024 à adopter une nouvelle législation visant les deepfakes. Brad Smith, vice-président etdent de Microsoft, avait souligné l'urgence pour les législateurs de s'attaquer à la menace croissante que représente la technologie des deepfakes.
Dans son article de blog, Smith a souligné l'importance d'adapter la législation pour lutter contre la fraude liée aux deepfakes et prévenir leur exploitation. Selon lui, il faudrait une loi permettant de poursuivre les auteurs d'escroqueries et de fraudes utilisant des deepfakes.
D'après le rapport de Microsoft, plusieurs mesures juridiques peuvent être prises pour prévenir l'utilisation abusive de la technologie deepfake. L'une des suggestions consiste à créer une loi fédérale sur la fraude liée aux deepfakes
Faire pression sur les plateformes par la réglementation
Partout dans le monde, les organismes de réglementation ont du mal à suivre le rythme des progrès rapides de la technologie de l'IA.
Au Royaume-Uni, l'autorité de régulation des communications (le « Régulateur des communications ») et l'autorité de régulation de la protection de la vie privée (le « Régulateur de la protection de la vie privée ») ont ouvert une enquête sur le chatbot Grok, exploité par Elon Musk, car celui-ci a produit des images sexualisées d'enfants sans leur consentement.
Dans le cadre de cette enquête, les deux organismes de réglementation travailleront ensemble à l'élaboration d'un nouveau cadre visant à aider les forces de l'ordre et les organismes de réglementation à établir des normes cohérentes sur la façon d'évaluer les outils de détection utilisés par ces derniers.
Selon Kendall, l’objectif de ce nouveau cadre est de « promouvoir le rétablissement de la confiance dans ce que les gens voient et entendent en ligne » et d’exiger que tous les fournisseurs de technologies assument la responsabilité d’atténuer les dommages potentiels liés à l’utilisation accélérée des technologies d’IA.
Si vous souhaitez une approche plus sereine de la DeFi et des cryptomonnaies , sans le battage médiatique habituel, commencez par cette vidéo gratuite.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














