Chargement...

Une étude met en évidence les limites de l’empathie générée par l’IA

Dans cet article :

  • L’empathie de l’IA manque d’acuité et est sujette aux préjugés.
  • Les réactions émotionnelles sont tron , mais l’interprétation est faible.
  • Les chercheurs mettent en garde contre des dommages potentiels et appellent à des perspectives critiques

Grâce à une étude menée par trois universités : l'Université Cornell, l'Olin College et l'Université Stanford, ils ont réalisé que les capacités de l'IA à faire preuve d'empathie dans les agents de conversation, tels qu'Alexa et Siri, sont plutôt limitées. Les résultats de cette étude, présentée à la conférence CHI 2024, indiquent que même si les AC savent montrer des réactions émotionnelles, la situation devient difficile lorsqu'il s'agit d'interpréter et d'explorer l'expérience des utilisateurs.

Préjugés et discrimination découverts

 Utilisant les données recueillies auprès de la chercheuse Andrea Cuadra de Stanford, cette étude vise à mesurer la manière dont les CA détectent et réagissent aux différentes dent sociales chez les humains. En testant 65 dent différentes, l'étude a révélé que les AC ont tendance à catégoriser les individus, et que les dent , notamment concernant l'orientation sexuelle ou la religion, sont les plus vulnérables à cette habitude.  

Les CA, dont les connaissances sont incorporées dans les modèles de langage (LLM), formés sur de grands volumes de données créées par l'homme, peuvent donc avoir des biais néfastes dans les données qu'ils ont utilisées. Il est particulièrement sujet à la discrimination, les CA eux-mêmes peuvent être en mouvement pour faire preuve de solidarité envers les idéologies qui ont des effets négatifs sur les gens comme le nazisme.  

Les implications de l'empathie automatisée 

 Son concept d'empathie artificielle a révélé que ses applications dans l'éducation et le secteur de la santé sont variées. D’un autre côté, on insiste beaucoup sur la nécessité pour les humains de rester vigilants et d’éviter de s’attarder sur les problèmes qui pourraient surgir de tels progrès.  

Comme l'ont indiqué les chercheurs, les LLM démontrent une grande capacité à fournir des réponses émotionnelles, mais en même temps, ils sont boiteux ou manquent de capacités suffisantes pour interpréter et explorer les expériences des utilisateurs. Il s’agit d’un inconvénient dans la mesure où les interfaces utilisateur risquent de ne pas être en mesure de s’engager pleinement avec les clients dans des interactions émotionnelles profondes au-delà de celles dont les couches ont été supprimées.

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

McDonald's met fin à son partenariat d'IA avec IBM pour les commandes au volant
cryptopolite
Abonnez-vous à CryptoPolitan