研究により、AlexaやSiriといった会話エージェントにおけるAIの共感能力は限定的であることが明らかになりました。CHI 2024カンファレンスに提出されたこの研究結果は、会話エージェントは感情的な反応を示すことには優れているものの、ユーザー体験の解釈や探索に関しては状況が困難になることを示唆しています。
偏見と差別が明らかに
この研究は、スタンフォード大学の研究者アンドレア・クアドラが収集したデータを用いて、CAが人間の間で異なる社会的dentをどのように検知し、反応するかを測定することを目的としてdent。65種類の異なるアイデンティティをテストした結果、CAは個人を分類する傾向があり、特に性的指向や宗教に関するdentはこの傾向に最も影響を受けやすいことがわかりました。.
CAの知識は言語モデル(LLM)に組み込まれており、人間が作成した膨大なデータで学習されるため、使用したデータに有害なバイアスが含まれている可能性があります。特に差別的になりやすく、CA自身もナチズムのような人々に悪影響を及ぼすイデオロギーへの連帯を示すために行動することがあります。.
自動化された共感の意味
彼の人工共感の概念から、教育や医療分野におけるその応用範囲が多岐にわたることが明らかになった。一方で、人間はこうした進歩によって生じる可能性のある問題に常に注意を払い、その影響を回避する必要があることも強調されている。.
研究者らが述べているように、LLMは感情的な反応を提供する能力が高い一方で、ユーザーエクスペリエンスの解釈や探索能力が不十分であったり、不十分であったりする。これは欠点であり、UIは、レイヤーを剥ぎ取られた以上の深い感情的なインタラクションにおいて、クライアントと十分にエンゲージできない可能性がある。.

