연구를 통해 알렉사, 시리 등 대화 에이전트에서 공감을 표시하는 AI의 능력이 다소 제한적이라는 사실을 깨닫게 됐다. CHI 2024 컨퍼런스에 제출된 이 연구 결과에 따르면 CA는 감정적 반응을 잘 보여주지만 사용자 경험을 해석하고 탐색할 때 상황이 어려워진다는 것을 알 수 있습니다.
편견과 차별이 밝혀졌습니다
스탠포드의 연구원 Andrea Cuadra가 수집한 데이터를 사용하여 이 연구는 CA가 인간의 다양한 사회적dent을 어떻게 감지하고 이에 반응하는지 측정하는 것을 목표로 합니다. 65개의 다양한dent을 테스트한 결과, CA는 개인을 분류하는 경향이 있으며, 특히 성적 지향이나 종교와 관련된dent은 이러한 습관에 가장 취약한 것으로 나타났습니다.
따라서 인간이 생성한 대량의 데이터에 대해 교육을 받은 언어 모델(LLM)에 지식이 통합된 CA는 자신이 사용한 데이터에 해로운 편견을 가질 수 있습니다. 특히 차별을 받기 쉬우며, CA 자체는 나치즘과 같이 사람들에게 부정적인 영향을 미치는 이데올로기에 대한 연대를 보여주기 위해 이동할 수 있습니다.
자동화된 공감의 의미
그의 인공적 공감 개념을 통해 교육과 의료 분야에서의 활용이 다양하다는 사실이 드러났다. 반면에, 인간은 경계를 늦추지 않고 그러한 발전으로 인해 발생할 수 있는 문제를 피해야 할 필요성이 크게 강조됩니다.
연구자들이 언급한 바와 같이 LLM은 감정적 반응을 제공하는 높은 능력을 보여 주지만 동시에 사용자 경험을 해석하고 탐색하는 능력이 부족하거나 부족합니다. UI가 레이어가 벗겨진 것 이상으로 깊은 감정적 상호 작용에서 클라이언트와 완전히 소통할 수 없기 때문에 이는 단점입니다.
크립토 폴리탄 아카데미 : 시장 스윙에 지쳤습니까? DeFi 어떻게 도움이되는지 알아보십시오. 지금 등록하십시오