공동 연구를 통해 , 알렉사나 시리와 같은 대화형 에이전트에서 인공지능이 공감 능력을 발휘하는 데에는 한계가 있다는 사실이 밝혀졌습니다. CHI 2024 학회에 제출된 이 연구 결과는 대화형 에이전트가 감정적인 반응을 보이는 데는 능숙하지만, 사용자의 경험을 해석하고 이해하는 데에는 어려움을 겪는다는 점을 시사합니다.
연구 결과 편견과 차별이 드러났습니다
스탠포드 대학의 안드레아 쿠아드라 연구원이 수집한 데이터를 활용한 본 연구는 인공지능(CA)이 인간의 다양한 사회적dent을 어떻게 감지하고 반응하는지 측정하는 것을 목표로 합니다. 65가지의 다양한dent을 대상으로 한 연구 결과, 인공지능은 개인을 범주화하는 경향이 있으며, 특히 성적 지향이나 종교와 관련된dent이 이러한 경향에 가장 취약한 것으로 나타났습니다.
인간이 생성한 방대한 양의 데이터를 기반으로 학습된 언어 모델(LLM)에 포함된 인공지능(CA)은 해당 데이터에 내재된 유해한 편향을 가질 수 있습니다. 특히 차별적인 성향을 보이며, 나치즘과 같이 사람들에게 부정적인 영향을 미치는 이념에 대한 연대감을 드러내는 경우가 발생할 수 있습니다.
자동화된 공감의 의미
인공 공감 개념을 통해 교육 및 의료 분야에서 다양한 응용 가능성이 드러났습니다. 한편, 이러한 기술 발전으로 인해 발생할 수 있는 문제점을 예방하고 경계를 늦추지 않아야 한다는 점이 크게 강조되었습니다.
연구자들이 지적했듯이, LLM은 감정적 반응을 제공하는 데는 뛰어난 능력을 보여주지만, 동시에 사용자 경험을 해석하고 탐색하는 능력은 미흡하거나 부족합니다. 이는 UI가 표면적인 감정적 층위를 넘어 깊은 감정적 상호작용을 통해 고객과 충분히 소통하지 못하게 할 수 있다는 단점으로 작용합니다.

