DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Comment une étude sur les aptitudes de l'IA à la désinformation révèle les capacités impressionnantes, mais inquiétantes, de ChatGPT-3

ParJohn PalmerJohn Palmer
3 minutes de lecture -
désinformation
  • Les générateurs de texte basés sur l'IA, comme ChatGPT-3, peuvent produire de manière convaincante des informations à la fois véridiques et fausses, ce qui soulève des inquiétudes quant à la désinformation sur les réseaux sociaux. 
  • Les utilisateurs ont du mal à faire la distinction entre le contenu généré par l'humain et celui généré par l'IA, ce qui révèle la sophistication de ChatGPT-3.
  • Il est urgent de développer la culture numérique et la vigilance afin de lutter contre le détournement potentiel des technologies d'IA dans la diffusion de la désinformation.

Une étude récente publiée dans Science Advances met en lumière les capacités exceptionnelles des générateurs de texte par intelligence artificielle, tels que ChatGPT-3 d'OpenAI, à diffuser de manière convaincante des informations véridiques et fausses sur les réseaux sociaux. Cette étude souligne les difficultés liées àdentidentification des contenus générés par l'IA et l'impact de la désinformation produite par l'IA sur la santé individuelle et publique. Le Dr Federico Germani, co-auteur de l'étude et chercheur à l'Institut d'éthique biomédicale et d'histoire de la médecine de l'Université de Zurich, insiste sur la nécessité de comprendre les risques associés à la désinformation et l'influence de l'IA sur le paysage informationnel.

Quelle est la différence entre la mésinformation et la désinformation ?

La mésinformation désigne des informations fausses ou inexactes, c'est-à-dire des faits erronés. La désinformation, quant à elle, désigne des informations fausses diffusées délibérément dans le but d'induire en erreur, c'est-à-dire une déformation intentionnelle des faits. Selon l'Association américaine de psychologie, la mésinformation et la désinformation ont nui à notre capacité d'améliorer la santé publique, de lutter contre le changement climatique, de maintenir une démocratie stable, et bien plus encore. Quiconque aborde des sujets sensibles sur les réseaux sociaux risque de se retrouver au cœur d'une polémique. Comment peut-il se protéger tout en communiquant les faits, et quel rôle les institutions peuvent-elles jouer pour le soutenir ? L'effet de foule qui règne sur les réseaux sociaux rend le public vulnérable à l'influence de l'intelligence artificielle : ces données sont présentées comme « scientifiques » et donc acceptables. Mais l'IA est-elle réellement intelligente ?

Le pouvoir de ChatGPT-3 pour la désinformation

ChatGPT-3 d'OpenAI, lancé en 2020, a révolutionné le paysage de l'IA grâce à son incroyable capacité à produire des textes authentiques à partir de requêtes. Les applications potentielles des générateurs de texte par IA semblent infinies : création de chatbots interactifs, soutien à la recherche universitaire et production de contenus créatifs tels que poèmes et nouvelles.

Cette étude met en lumière d'importantes préoccupations concernant le potentiel détournement des générateurs de texte par IA, notamment leur capacité à produire de la désinformation et des contenus trompeurs. Avec l'essor des réseaux sociaux, la vitesse et la portée de l'information, y compris la désinformation, se sont considérablement accrues, rendant d'autant plus urgente la résolution de ce problème.

Une autre étude empirique a révélé que les gens surestiment souvent leur capacité à détecter les informations fausses ou trompeuses, un phénomène connu sous le nom de « biais de détection des mensonges ». Des événements récents comme la pandémie de COVID-19 et l'invasion de l'Ukraine par la Russie ont démontré l'influence de la désinformation et de la mésinformation sur l'opinion publique, les comportements en matière de santé et les décisions politiques.

Défis pour les entreprises de médias sociaux

Malgré les efforts déployés par les entreprises pour lutter contre la désinformation sur leurs plateformes, le rapport de Meta sur les menaces adverses du premier trimestre 2023 reconnaît que les opérations d'influence secrètes, le cyberespionnage et les réseaux privés de désinformation continuent de poser des problèmes importants sur les médias sociaux.

Le Dr Germani et ses collègues ont mené une étude pour évaluer la capacité des individus à distinguer les contenus générés par des humains des textes produits par ChatGPT-3. L'étude a porté sur 11 sujets sensibles à la désinformation ; des tweets synthétiques contenant des informations vraies et fausses ont été créés à l'aide de ChatGPT-3. Des tweets authentiques publiés sur Twitter et concernant les mêmes sujets ont également été inclus à des fins de comparaison.

Les participants à l'étude devaientdentsi un tweet contenait des informations vraies ou fausses et s'il avait été créé par un humain ou par ChatGPT-3. Les résultats ont révélé que les participants étaient plus performants pourdentla désinformation dans les tweets « faux organiques » (écrits par de vrais utilisateurs) que dans les tweets « faux synthétiques » (créés par ChatGPT-3). Inversement, ils étaient plus susceptibles de reconnaître correctement les informations exactes dans les tweets « vrais synthétiques » (générés par ChatGPT-3) que dans les tweets « vrais organiques » (écrits par de vrais utilisateurs).

Le défi de la différenciation

L'étude a mis en évidence les difficultés rencontrées par les participants pour distinguer les tweets rédigés par des humains de ceux générés par ChatGPT-3. Les chercheurs suggèrent que le texte de GPT-3 est plus facile à lire et à comprendre, ce qui pourrait expliquer cette difficulté. Fait intéressant, ChatGPT-3 n'a pas surpassé les humains en matière de reconnaissance de l'information et de la désinformation, démontrant ainsi son incapacité à évaluer la fiabilité des informations qu'il produit.

Le Dr Germani souligne la nécessité de mener des études à plus grande échelle sur les plateformes de médias sociaux afin de comprendre comment les individus interagissent avec les informations générées par l'IA et comment celles-ci influencent leurs comportements et leur adhésion aux recommandations de santé publique. L'étude met en lumière les capacitésdentprécédent des générateurs de texte par IA et souligne l'urgence de développer la culture numérique à l'ère de l'IA.

Surveillance et atténuation des effets négatifs

Les chercheurs soulignent l'importance d'évaluer de manière critique les implications des grands modèles de langage comme ChatGPT-3 et de prendre des mesures pour atténuer leurs éventuels effets négatifs sur la société. Face à l'évolution constante de l'intelligence artificielle, la vigilance est essentielle pour garantir son utilisation responsable et prévenir les abus potentiels.

Les conclusions de l'étude révèlent l'impressionnante, quoique troublante, capacité des générateurs de texte par IA à produire de la désinformation de manière plus convaincante que les humains. Face à l'influence et à la popularité croissantes de ces générateurs, l'étude souligne la nécessité de mesures proactives pour lutter contre la désinformation et garantir un usage responsable de l'intelligence artificielle.

Remarque : L’image présentée représente une figure robotique alimentée par l’IA générant un nuage de texte déformé autour d’elle, froide et calculatrice par conception.

Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.

Partagez cet article

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitandécline toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustronrecommandons vivement d’effectuer vosdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES