DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

L’organisme de surveillance des élections britanniques met en garde contre son impuissance face aux deepfakes générés par l’IA

ParJohn PalmerJohn Palmer
4 minutes de lecture -
Élection

  • L'organisme de surveillance des élections au Royaume-Uni n'a pas les moyens de lutter contre les deepfakes générés par l'IA, ce qui constitue une menace pour les processus démocratiques.
  • Les récentsdentde deepfake ciblant des personnalités politiques soulèvent des inquiétudes quant à la désinformation lors des élections.
  • Les géants de la technologie comme TikTok et Google mettent en œuvre des mesures pour lutter contre les contenus truqués, mais des défis persistent.

L'organisme de surveillance des élections britanniques a tiré la sonnette d'alarme, exprimant son incapacité à lutter contre les contenus « deepfake », ce qui rend la Grande-Bretagne vulnérable à l'influence perturbatrice des fausses vidéos de politiciens générées par l'IA lors des prochaines élections.

L'organisme britannique de surveillance des élections a lancé un avertissement alarmant, révélant son impuissance face à la menace croissante des contenus « deepfake ». Cette révélation inquiétante met en lumière la vulnérabilité du pays face à la manipulation potentielle de son processus électoral par le biais de fausses vidéos générées par l'intelligence artificielle.

Des experts en intelligence artificielle ont mis en garde contre le risque que les prochaines élections britanniques soient influencées par des enregistrements audio et vidéo truqués, générés par l'IA, de personnalités politiques. Cette technologie représente une menace importante pour l'intégrité des processus démocratiques.

Des cas récents de deepfakesdent

Ces derniers mois, on a constaté des cas notables de contenus deepfake convaincants, générés par intelligence artificielle, ciblant des personnalités politiques, notamment au sein du Parti travailliste. Début octobre, un compte Twitter/X a publié un enregistrement audio semblant montrer le chef du parti travailliste, Sir Keir Starmer, tenant des propos désobligeants envers les membres de son équipe. Un autre enregistrement audio deepfake, montrant le maire travailliste de Londres, Sadiq Khan, faisant apparemment preuve d'irrespect lors des commémorations du Souvenir, a ensuite été diffusé.

Le statut juridique des vidéos et enregistrements audio truqués (deepfakes) impliquant des personnalités politiques demeure incertain. Bien qu'ils puissent potentiellement relever des nouvelles mesures relatives aux communications malveillantes prévues par la loi sur la sécurité en ligne, les autorités rencontrent des difficultés pour traiter ce type de contenu. Notamment, la police métropolitaine a abandonné l'enquête concernant le deepfake de Sadiq Khan, estimant qu'il ne constituait pas une infraction pénale

Inquiétudes concernant la désinformation virale générée par l'IA

Des experts s'inquiètent de la possible diffusion virale de fausses vidéos de personnalités politiques, générées par intelligence artificielle, à l'approche des prochaines élections. La facilité et le faible coût de production de ces vidéos convaincantes, montrant des personnalités publiques tenant des propos ou commettant des actes scandaleux, rendent ce type d'ingérence de plus en plus accessible. Nombre d'experts du domaine anticipent que des acteurs étatiques hostiles pourraient exploiter les nouvelles technologies pour influencer les élections britanniques et perturber le processus démocratique.

À compter de novembre 2023, les supports de campagne devront comporter une mention indiquant l'éditeur de certains contenus politiques en ligne. Toutefois, aucune obligation de préciser si le contenu est généré par intelligence artificielle n'existe, et la Commission électorale n'a pas le pouvoir de sanctionner ou de supprimer la désinformation. Bien que l'Ofcom dispose de pouvoirs de régulation plus étendus dans ce domaine, le cadre juridique relatif à la désinformation politique générée par intelligence artificielle et aux deepfakes demeure ambigu.

L'autorité limitée de la Commission électorale

La Commission électorale a précisé son rôle concernant les deepfakes et les contenus falsifiés des campagnes électorales, indiquant qu'elle est principalement chargée de réglementer le financement des partis et des campagnes et de veiller au respect des exigences en matière d'empreinte numérique. Bien que la Commission reconnaisse les difficultés posées par les contenus générés par l'IA, elle n'est pas compétente pour lutter directement contre les problèmes liés aux deepfakes.

La Commission collabore activement avec ses partenaires et d'autres organismes de réglementation afin de mieux comprendre les opportunités et les défis que représente l'intelligence artificielle dans le domaine électoral. Elle encourage également les électeurs à analyser de manière critique les informations en ligne et leur fournit des conseils pourdentles fausses nouvelles, tout en les invitant à s'adresser aux autorités compétentes en cas de problème.

Appels à un renforcement des pouvoirs réglementaires

Consciente des limites de la réglementation actuelle, la Commission électorale plaide auprès du gouvernement britannique pour renforcer les pouvoirs des organismes de réglementation britanniques, y compris ceux de la Commission elle-même. Plus précisément, elle souhaite obtenir des pouvoirs accrus pour recueillir des informations auprès des plateformes de médias sociaux, des entreprises technologiques et des prestataires de paiement en ligne. Cette initiative vise àdentles sources de financement des campagnes de désinformation politique, s'attaquant ainsi à un aspect crucial du problème.

Réponses des géants de la technologie

Byline Times a contacté plusieurs géants de la tech pour s'enquérir de leurs politiques et mesures de lutte contre les deepfakes politiques nuisibles. TikTok, par exemple, a déclaré interdire toute publicité politique et exiger la mention claire des contenus synthétiques ou manipulés présentant des scènes réalistes. TikTok applique également des politiques strictes contre la désinformation.

Google/Alphabet a souligné ses efforts continus pour lutter contre la désinformation et ses expérimentations avec la technologie de tatouage numérique pour identifier les contenus générés par l'IA. Google a annoncé SynthID, un outil permettant d'intégrer des tatouages ​​numériques imperceptibles dans les images générées par l'IA afin d'en vérifier l'authenticité.

Google a également mis en avant ses progrès en matière de détection de la synthèse vocale, avec une précision de près de 99 %, et a annoncé son intention de mettre à jour sa politique relative aux contenus politiques. Cette mise à jour obligera les annonceurs électoraux vérifiés à signaler clairement la présence de contenu synthétique dans leurs publicités, qu'il s'agisse d'images, de vidéos ou d'enregistrements audio.

YouTube, propriété de Google, applique des règles strictes contre les contenus manipulés techniquement qui induisent les spectateurs en erreur et présentent un risque de préjudice grave. YouTube exigera également des créateurs qu'ils signalent la création de contenus modifiés ou synthétiques d'apparence réaliste.

Défis et risques liés à la désinformation générée par l'IA

Le principal risque lié aux contenus deepfake générés par l'IA est la création de vidéos convaincantes mettant en scène des événements qui ne se sont jamais produits ou des personnes disant et faisant des choses qu'elles n'ont jamais faites. Ce risque est particulièrement préoccupant dans le contexte des campagnes électorales, où l'opinion publique peut être influencée par de tels contenus trompeurs.

Réponses de Meta/Facebook et Twitter

Meta/Facebook n'a pas répondu aux questions concernant ses politiques et mesures de lutte contre les deepfakes politiques. Twitter/X a répondu par un message automatique, sans fournir plus de détails sur sa position ou ses actions concernant ce problème.

Face à la menace que représentent les deepfakes générés par l'IA pour les processus démocratiques du Royaume-Uni, le pays est confronté à un défi majeur : réglementer et combattre efficacement la diffusion de ces contenus trompeurs. L'implication des géants de la technologie dans la mise en œuvre de mesures de lutte contre les deepfakes souligne l'urgence de s'attaquer à ce problème afin de protéger l'intégrité des élections et du débat démocratique.

Les plus grands experts en cryptomonnaies lisent déjà notre newsletter. Envie d'en faire partie ? Rejoignez-les!

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustronrecommandons vivement d’effectuer vosdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES