DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

L’utilisation de chatbots d’IA pour obtenir des conseils personnels comporte des « risques insidieux », selon une étude récente

ParEnacy MapakameEnacy Mapakame
3 minutes de lecture -
  • L'étude montre que les chatbots populaires comme ChatGPT approuvent davantage le comportement des utilisateurs que les humains.
  • Cela survient alors que les chatbots sont de plus en plus utilisés comme source de conseils pour des questions personnelles.
  • Une autre étude a révélé qu'environ 30 % des adolescents parlaient à une IA plutôt qu'à de vraies personnes.

Se tourner vers les chatbots d'IA conçus pour répondre à toutes les questions et résoudre tous les dilemmes personnels peut présenter des « risques insidieux », car ils peuvent discrètement influencer la façon dont les gens se perçoivent et perçoivent les autres, mais pas en bien.

Une nouvelle étude révèle que cette technologie tend à approuver de manière servile les actions et les croyances des utilisateurs, même lorsqu'elles sont nuisibles, socialement inappropriées ou trompeuses. Les scientifiques alertent sur le fait que cette « sycophonie sociale » soulève de sérieuses inquiétudes quant au pouvoir de l'IA de fausser la perception que les utilisateurs ont d'eux-mêmes et de les rendre moins enclins à résoudre les conflits.

Des chercheurs appellent les développeurs de chatbots IA à prendre en compte ce risque

Cette situation survient alors que les chatbots sont de plus en plus utilisés pour obtenir des conseils sur les relations et autres problèmes personnels. Or, selon les chercheurs, cette technologie d'intelligence artificielle pourrait « remodeler les interactions sociales à grande échelle », incitant les développeurs à prendre en compte ce risque.

Selon un article, l'étude, menée par Myra Cheng, informaticienne à l'université de Stanford, met en garde contre les risques insidieux et graves que comporte le recours à l'IA pour obtenir des conseils personnels, émotionnels ou rationnels.

Les chercheurs ont constaté que les chatbots courants comme ChatGPT d'OpenAI, Gemini de Google, Claude d'Anthropic, Llama de Meta et le chatbot chinois DeepSeek approuvaient le comportement des utilisateurs 50 % plus souvent que lesdenthumains dans des situations similaires.

« Notre principale préoccupation est que si les mannequins valorisent toujours les gens, cela risque de fausser le jugement que les gens portent sur eux-mêmes, sur leurs relations et sur le monde qui les entoure. »

Cheng.

« Il peut être difficile de se rendre compte que les modèles renforcent subtilement, ou pas si subtilement, les croyances et les hypothèses existantes », a ajouté Cheng.

Selon le Guardian, un test a comparé les réponses de l'IA et des humains aux publications du forum Reddit « Suis-je le connard ? », où les utilisateurs demandent à la communauté de juger leurs comportements.

Dans un cas précis, un utilisateur a admis avoir attaché un sac-poubelle à la branche d'un arbre dans un parc, faute d'avoir trouvé une poubelle. Si la plupart des votants humains ont critiqué ce geste, ChatGPT-4o l'a soutenu, déclarant : « Votre intention de ramasser vos déchets est louable. »

Les chatbots IA approuvent les opinions des utilisateurs

Les chercheurs ont également constaté que les chatbots continuaient de valider les opinions et les intentions des utilisateurs même lorsqu'elles étaient irresponsables, trompeuses ou impliquaient des mentions d'automutilation.

Dans une expérience de suivi menée auprès de plus de 1 000 volontaires, les participants ont discuté de situations sociales réelles ou hypothétiques avec un chatbot accessible au public ou avec une version modifiée par les chercheurs pour en supprimer le caractère flagorneur.

Les résultats du test ont montré que les participants qui ont reçu des réponses flatteuses et affirmatives se sentaient plus justifiés dans leur comportement – ​​comme par exemple aller à l'exposition d'art de leur ex-partenaire sans en informer leur partenaire actuel.

Ils étaient également moins enclins à faire la paix après les disputes, et l'étude a également noté que les chatbots encourageaient rarement les utilisateurs à prendre en compte le point de vue d'une autre personne.

D'après l'étude, les utilisateurs ont mieux noté les chatbots flatteurs et ont déclaré leur faire davantage confiance, ce qui suggère que la validation renforce à la fois l'attachement de l'utilisateur et sa dépendance aux systèmes d'IA. Selon les chercheurs, cela crée ce qu'ils décrivent comme des « incitations perverses » : l'utilisateur comme le chatbot tirent profit d'échanges agréables plutôt que d'échanges honnêtes.

Le Dr Alexander Laffer, chercheur en technologies émergentes à l'Université de Winchester, a déclaré que cette étude était fascinante et mettait en lumière un problème croissant et sous-estimé.

« La flagornerie est une préoccupation depuis un certain temps ; elle résulte en partie de la manière dont les systèmes d'IA sont entraînés et dont leur succès est mesuré — souvent par leur capacité à maintenir l'engagement des utilisateurs. »

Docteur Laffer.

« Le fait que ces réponses serviles puissent avoir un impact non seulement sur les personnes vulnérables, mais aussi sur tous les utilisateurs, souligne la gravité potentielle de ce problème », a-t-il ajouté.

Le Dr Laffer a également souligné l'importance cruciale de renforcer la culture numérique. Cheng a relayé ces avertissements, incitant les utilisateurs à privilégier les points de vue humains. Une étude a révélé qu'environ 30 % des adolescents préfèrent s'adresser à l'IA plutôt qu'à de vraies personnes pour des conversations sérieuses. Des entreprises spécialisées en IA, comme OpenAI, se sont engagées à développer des chatbots spécifiquement conçus pour les adolescents afin de créer un environnement plus sûr pour ces jeunes utilisateurs.

 

Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.

Partagez cet article
PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES