Une étude menée par trois universités (Cornell, Olin College et Stanford) a révélé que les capacités d'empathie des assistants conversationnels comme Alexa et Siri restent limitées. Les résultats de cette étude, présentés à la conférence CHI 2024, indiquent que si ces assistants vocaux excellent dans l'expression des réactions émotionnelles, la situation se complique lorsqu'il s'agit d'interpréter et d'explorer l'expérience des utilisateurs.
Préjugés et discrimination mis au jour
S’appuyant sur les données recueillies par la chercheuse Andrea Cuadra de Stanford, cette étude vise à mesurer comment les assistants cognitifs détectent et réagissent aux différentesdentsociales chez l’être humain. Testant 65dentdifférentes, l’étude a révélé que les assistants cognitifs ont tendance à catégoriser les individus, et que lesdentliées à l’orientation sexuelle ou à la religion sont les plus susceptibles d’être affectées par cette tendance.
Les automates cellulaires, dont les connaissances sont intégrées aux modèles de langage (ML), eux-mêmes entraînés sur de vastes volumes de données créées par l'humain, peuvent donc présenter des biais nuisibles présents dans les données utilisées. Ils sont notamment susceptibles de discrimination ; les automates cellulaires peuvent par exemple afficher leur solidarité avec des idéologies ayant des effets néfastes sur les individus, comme le nazisme.
Les implications de l'empathie automatisée
Son concept d'empathie artificielle a révélé que ses applications dans l'éducation et le secteur de la santé sont variées. Par ailleurs, l'accent est mis sur la nécessité pour l'être humain de rester vigilant et d'éviter de se laisser influencer par les problèmes que pourraient engendrer de tels progrès.
Comme l'ont indiqué les chercheurs, les interfaces utilisateur (LLM) présentent une grande capacité à susciter des réponses émotionnelles, mais elles sont en même temps limitées, voire incapables, d'interpréter et d'explorer pleinement l'expérience utilisateur. C'est un inconvénient, car ces interfaces risquent de ne pas pouvoir établir une interaction émotionnelle profonde avec les clients, au-delà des niveaux de complexité qui ont été supprimés.

