研究人员通过一项发现,人工智能在对话代理(例如 Alexa 和 Siri)中展现同理心的能力相当有限。这项提交给 CHI 2024 会议的研究结果表明,尽管对话代理能够很好地表达情感反应,但在解读和探索用户体验方面却存在困难。
研究揭示了偏见和歧视
本研究利用斯坦福大学研究员安德里亚·夸德拉收集的数据,旨在测量计算机辅助操作员(CA)如何识别和应对人类的不同社会dent。研究测试了65种不同的dent,发现计算机辅助操作员倾向于对个体进行分类,而与性取向或宗教信仰相关的dent最容易受到这种倾向的影响。.
计算机辅助语言模型(CA)的知识被融入到基于大量人类创建的数据训练的语言模型(LLM)中,因此可能带有这些数据中固有的有害偏见。尤其容易出现歧视现象,计算机辅助语言模型本身可能会公开支持某些对人们产生负面影响的意识形态,例如纳粹主义。.
自动化同理心的影响
他的“人工同理心”概念表明,该概念在教育和医疗保健领域的应用十分广泛。另一方面,人们也高度重视保持警惕的必要性,以避免此类技术进步可能带来的问题。.
正如研究人员所述,LLM(层级模型)在提供情感反馈方面表现出色,但同时,它们在解读和探索用户体验方面却能力不足。这是一个缺点,因为用户界面可能无法与用户进行深入的情感互动,而只能停留在剥离了层层界面之后的层面。.

