Dans une démarche courageuse et résolue, OpenAI , acteur majeur du domaine de l'intelligence artificielle (IA), a officiellement pris position contre l'utilisation de ses outils d'IA générative dans les campagnes électorales et les tactiques de manipulation du vote. Cette annonce intervient à un moment crucial, alors que de nombreuses élections importantes sont prévues en 2024 et que les inquiétudes concernant la propagation de la désinformation ne cessent de croître.
OpenAI a lancé une initiative stratégique pour sécuriser sa technologie, en mobilisant une équipe spécialisée chargée des problématiques liées aux élections. Cette équipe interdisciplinaire, composée d'experts de divers domaines tels que les systèmes de sécurité, le renseignement sur les menaces, le droit, l'ingénierie et les politiques publiques, a pour principal objectif d'dentet d'atténuer les risques d'utilisation abusive de l'IA lors des élections.
Mesures proactives pour lutter contre la désinformation
La menace de la désinformation en politique n'est pas un phénomène nouveau, mais l'avènement de l'intelligence artificielle a engendré des défisdentprécédent. Consciente de la gravité de ce problème, OpenAI prend des mesures proactives pour empêcher que sa technologie ne soit exploitée à des fins de manipulation des résultats électoraux. À cette fin, l'entreprise adopte une approche multidimensionnelle, incluant des tests d'intrusion, la mobilisation des utilisateurs et la mise en place de garde-fous.
DALL-E, l'un des outils d'IA les plus remarquables d'OpenAI, a été mis à jour afin d'intégrer des protections contre la génération d'images représentant des personnes réelles, notamment des candidats politiques. Cette mesure proactive garantit que le contenu généré par l'IA ne contribue pas, même involontairement, à la diffusion d'images trompeuses ou manipulées dans la sphère politique.
OpenAI s'engage à réviser régulièrement ses politiques d'utilisation afin de les adapter à l'évolution du paysage technologique de l'IA et à ses risques d'utilisation abusive. Ses politiques de sécurité mises à jour interdisent désormais explicitement le développement d'applications d'IA à des fins de campagne politique et de lobbying.
De plus, des mesures strictes ont été mises en œuvre pour empêcher la création de chatbots imitant de vraies personnes ou organisations, réduisant ainsi le risque que l'IA soit utilisée à des fins trompeuses.
Introduction de la transparence grâce au classificateur de provenance
Un volet important de la stratégie d'OpenAI pour lutter contre la désinformation consiste à intégrer un système de classification de la provenance à son outil DALL-E. Actuellement en phase de test bêta, cette fonctionnalité vise à détecter les images générées par DALL-E, améliorant ainsi la transparence des contenus produits par l'IA.
OpenAI prévoit de rendre cet outil accessible aux journalistes, aux plateformes et aux chercheurs, favorisant ainsi une plus grande responsabilisation et permettant la détection de contenus visuels potentiellement trompeurs.
OpenAI renforce également la transparence et la précision de la diffusion de l'information en intégrant l'actualité en temps réel à ChatGPT. Cette intégration garantit aux utilisateurs des informations fiables et actualisées, mettant ainsi en lumière les sources d'information fournies par l'IA et réduisant le risque de propagation de fausses informations.
En collaboration avec l'Association nationale des secrétaires d'État des États-Unis, OpenAI s'efforce d'éviter que sa technologie ne décourage la participation électorale. Ce partenariat consiste notamment à orienter les utilisateurs de chatbots utilisant GPT vers des sites web d'information électorale fiables, tels que CanIVote.org, favorisant ainsi l'engagement civique et l'accès à une information électorale précise.
Les leaders de l'industrie unissent leurs forces contre la désinformation sur l'IA
La déclaration résolue d'OpenAI constitue undent important dans le secteur de l'IA. Ses concurrents, tels que Google LLC et Meta Platforms Inc., ont également pris des mesures décisives pour lutter contre la désinformation diffusée par leurs technologies. Cet effort collectif des leaders du secteur témoigne d'une prise de conscience croissante de leur responsabilité et de l'impact potentiel de l'IA sur les processus démocratiques.
Bien que l'annonce d'OpenAI soit louable, elle a suscité un débat quant à l'opportunité de ces mesures. Charles King, de Pund-IT Inc., a soulevé des questions cruciales quant à savoir si ces actions sont opportunes ou plutôt réactives.
Il soutient que les inquiétudes concernant la désinformation générée par l'IA persistent depuis des années et que la récente annonce d'OpenAI pourrait être perçue comme une réponse tardive ou un simple geste symbolique. Cette perspective invite à une réflexion plus approfondie sur le rôle et la responsabilité des développeurs d'IA dans le paysage politique.

