Une étude menée par une équipe de l'Université Notre-Dame sur l'analyse des médias sociaux a révélé que le grand public éprouve de grandes difficultés à distinguer l'humain de l'intelligence artificielle lors des discussions politiques sur différentes plateformes en ligne.
L'étude, menée en trois phases à l'aide d'une plateforme Mastodon personnalisée, indique que les participants confondent les robots d'intelligence artificielle avec des humains dans 58 % des cas.
Les robots d'intelligence artificielle brouillent les frontières humaines dans le discours politique, selon une étude
L'équipe d'enquête, sous la direction du Dr Paul Brenner du Centre de calcul de recherche de l'Université de Notre Dame, a adopté des robots d'IA basés sur les réseaux génératifs, notamment GPT4, Llama-2-Chat et Claude 2.
Cette génération de chatbots a été conçue avec des personnalités diverses pour être utilisée comme acteurs politiques dans le domaine des affaires mondiales, adoptant de plus en plus souvent des traits humains et participant à différentes discussions politiques.
Ce qui était génial, c'était que chaque bot avait un personnage (l'émergence d'une personnalité avec un profil détaillé) qui avait pour instruction d'établir un lien entre les expériences personnelles et les événements du monde extérieur.
Concernant la manipulation des données, bien que le panel ait compris qu'il interagissait avec des humains et des robots, environ la moitié de ce groupe échantillonné n'a pas été capable de faire la différence entre l'intelligence artificielle et les humains réels.
Ces éléments de preuve démontrent que les robots conversationnels peuvent imiter très fidèlement les humains en ce qui concerne leurs schémas de conversation, augmentant ainsi leurs chances d'être utilisés pour diffuser de la désinformation.
Le rôle de l'IA dans la désinformation
M. Paul Brenner a soulevé des questions telles que l'adoption de ces robots dotés d'IA et leur probable effet en cascade, une opportunité pour ces robots d'influencer l'opinion publique et éventuellement de diffuser de la désinformation.
Il a expliqué que l'IA dans les simulations est si efficace que chaque être humain sur Internet peut facilement être trompé quant à la source originale de l'information.
Un autre aspect important mis en lumière par cette étude a été l'évaluation de différents modèles d'IA, démontrant que les taux de précision variaient peu entre les différents modèles de langage naturel (MLN). Ce résultat indique que même des modèles moins sophistiqués peuvent se révéler suffisamment convaincants pour créer des conversations naturelles dans des scénarios d'interaction sur les réseaux sociaux.
C’est pourquoi, entre autres choses, Brenner a d’emblée souligné sa position sur une approche multidimensionnelle de la prévention de la diffusion de fausses informations à l’aide de l’IA.
Ces initiatives, telles que les campagnes éducatives, les mesures législatives et une validation plus stricte des comptes sur les réseaux sociaux, contribueront toutes à éradiquer ce problème. Par ailleurs, les répercussions de l'IA sur la santé psychologique des adolescents seront prises en compte et des stratégies visant à atténuer cet impact seront élaborées.
Ce projet de recherche met en évidence le déséquilibre entre l'IA et l'intégrité de l'information en ligne sur les réseaux sociaux, ce qui nécessite le développement de stratégies intégrées pour faire face à cette situation.

