Les responsables de l'Union européenne (UE) préconisent des mesures supplémentaires pour promouvoir la transparence dans les outils d'intelligence artificielle (IA), y compris ChatGPT d'OpenAI, afin de lutter contre la propagation de la désinformation. Vera Jourova, vice- dent pour les valeurs et la transparence à la Commission européenne, a souligné la nécessité pour les entreprises déployant des outils d'IA générative d'étiqueter leur contenu et de mettre en place des garanties contre la diffusion de désinformations générées par l'IA.
Jourova a appelé les signataires, y compris les grandes entreprises technologiques telles que Microsoft et Google, à reconnaître le potentiel de l'IA générative pour générer de la désinformation et à prendre des mesures pour étiqueter clairement ce contenu. Cette décision permet aux utilisateurs de différencier les informations authentiques des informations potentiellement trompeuses. Le « code de bonnes pratiques sur la désinformation » de l'UE, établi en 2018, sert de norme d'autorégulation pour l'industrie technologique afin de lutter contre la désinformation. Plusieurs entreprises technologiques de premier plan, dont Google, Microsoft et Meta Platforms, ont signé le code de l'UE et devraient rendre compte de leurs nouvelles garanties pour le contenu généré par l'IA en juillet.
Cependant, Jourova a souligné le récent retrait de Twitter du code et a averti que les actions de l'entreprise et le respect du droit de l'UE seraient étroitement surveillés. En outre, le vice-président dent souligné l'importance pour Twitter de respecter les normes réglementaires et de faire face à une évaluation rigoureuse.
Ces discussions sur la transparence et l'étiquetage du contenu généré par l'IA s'inscrivent dans le cadre des efforts plus larges de l'UE pour réglementer l'utilisation de la technologie de l'IA. La prochaine loi européenne sur l'intelligence artificielle vise à établir des lignes directrices complètes pour l'utilisation publique de l'IA et les entreprises qui l'utilisent. Alors que les lois officielles devraient être mises en œuvre dans les deux à trois prochaines années, les responsables de l'UE ont encouragé les entreprises à adopter un code de conduite volontaire pour les développeurs d'IA générative dans l'intervalle.
Répondre aux préoccupations et se protéger contre la désinformation générée par l'IA
Alors que la popularité des outils d'IA générative comme ChatGPT et Bard continue d'augmenter, des inquiétudes concernant une utilisation abusive potentielle et la propagation de la désinformation sont apparues. La directrice adjointe de la Commission européenne, Vera Jourova, a souligné l'importance pour les entreprises d'étiqueter le contenu généré par l'IA pour lutter contre la diffusion de fausses nouvelles.
Jourova a souligné que ChatGPT d'OpenAI soutenu par Microsoft et Bard de Google étaient des outils d'IA génératifs qui devraient incorporer les garanties nécessaires pour empêcher les acteurs malveillants de les utiliser pour générer de la désinformation. En mettant en œuvre une technologie pour reconnaître et étiqueter le contenu généré par l'IA, ces entreprises peuvent améliorer la transparence et permettre aux utilisateurs de porter des jugements éclairés sur les informations qu'ils consomment.
Conformément au Code de bonnes pratiques de l'UE sur la désinformation, les entreprises qui se sont inscrites, y compris Google, Microsoft et Meta Platforms, doivent rendre compte des garanties qu'elles ont mises en place pour lutter contre la désinformation générée par l'IA. Jourova a également averti Twitter, qui s'est récemment retiré du code, d'anticiper un contrôle réglementaire accru et a souligné la nécessité pour l'entreprise de se conformer au droit de l'UE.
L'accent mis par l'UE sur la lutte contre la désinformation générée par l'IA s'aligne sur ses efforts plus larges visant à établir des lignes directrices pour une utilisation responsable de l'IA. La prochaine loi européenne sur l'intelligence artificielle fournira des lignes directrices complètes pour l'utilisation publique de l'IA et les entreprises qui la déploient. Dans l'intervalle, les responsables européens exhortent les entreprises à prendre des mesures proactives et à adopter un code de conduite volontaire pour garantir le développement et le déploiement responsables de la technologie d'IA générative.