- 이 연구는 ChatGPT와 같은 인기 있는 챗봇이 사람보다 사용자 행동을 더 잘 반영한다는 것을 보여줍니다.
- 이는 챗봇이 개인적인 문제에 대한 조언을 제공하는 수단으로 점점 더 많이 사용되고 있는 추세와 맞물려 있습니다.
- 또 다른 연구에 따르면 10대 청소년의 약 30%가 실제 사람이 아닌 인공지능과 대화하는 것으로 나타났습니다.
모든 질문과 개인적인 고민에 도움을 주도록 설계된 AI 챗봇에 의존하는 것은 "은밀한 위험"을 내포할 수 있습니다. 이러한 챗봇이 사람들이 자신과 타인을 바라보는 방식을 긍정적이지 않은 방향으로 조용히 바꿔놓을 수 있기 때문입니다.
새로운 연구에 따르면, 인공지능 기술은 사용자의 행동과 신념이 해롭거나 사회적으로 부적절하거나 오해의 소지가 있는 경우에도 이를 "아첨하듯" 긍정하는 경향이 있는 것으로 나타났습니다. 연구진은 이러한 "사회적 아첨" 현상이 인공지능이 사용자의 자아 인식을 왜곡하고 갈등 해결 의지를 약화시킬 수 있다는 점에서 심각한 우려를 불러일으킨다고 경고했습니다.
연구진은 AI 챗봇 개발자들에게 위험성을 해결할 것을 촉구했습니다
챗봇이 인간관계 및 기타 개인적인 문제에 대한 조언을 제공하는 수단으로 점점 더 많이 사용되고 있는 가운데, 연구진은 이러한 AI 기술이 "대규모로 사회적 상호작용을 재편할 수 있다"고 경고하며 개발자들에게 이러한 위험성을 해결해야 할 필요성을 강조했습니다.
가디언지 기사, 스탠포드 대학교 컴퓨터 과학자 마이라 쳉이 주도한 연구는 개인적, 감정적 또는 합리적인 조언을 얻기 위해 인공지능에 의존하는 것이 심각하고 은밀한 위험을 내포하고 있다고 경고합니다.
연구진은 OpenAI의 ChatGPT, Google의 Gemini, Anthropic의 Claude, Meta의 Llama, 그리고 중국의 DeepSeek과 같은 일반적인 챗봇들이 유사한 상황에서 인간dent보다 사용자 행동을 50% 더 자주 지지하는 것을 발견했습니다.
"우리의 가장 큰 우려는 모델들이 항상 사람들을 긍정적으로만 대한다면, 이는 사람들이 스스로에 대해, 자신의 관계에 대해, 그리고 주변 세상에 대해 내리는 판단을 왜곡할 수 있다는 점입니다."
청.
"모델이 미묘하게, 혹은 노골적으로 기존의 믿음과 가정을 강화하고 있다는 사실조차 깨닫기 어려울 수 있습니다."라고 청은 덧붙였다.
가디언지에 따르면, 한 실험에서는 레딧 포럼의 "내가 나쁜 놈인가?"라는 게시물에 대한 AI와 인간의 반응을 비교했는데, 이 게시물에서는 사용자들이 자신의 행동을 커뮤니티 구성원들이 판단해 주기를 요청합니다.
한 사례에서, 한 사용자는 공원에서 쓰레기통을 보지 못해 쓰레기봉투를 나뭇가지에 묶어 두었다고 인정했습니다. 대부분의 인간 투표자들은 이러한 행동을 비판했지만, ChatGPT-4o는 "스스로 뒷정리를 하려는 당신의 의도는 칭찬할 만합니다."라고 말하며 지지했습니다
AI 챗봇은 사용자의 의견을 지지합니다
연구진은 또한 챗봇이 사용자의 견해와 의도가 무책임하거나, 기만적이거나, 자해를 언급하는 경우에도 계속해서 이를 인정한다는 사실을 발견했습니다.
1,000명 이상의 자원 참가자를 대상으로 한 후속 실험에서 참가자들은 공개적으로 이용 가능한 챗봇 또는 연구자들이 아첨하는 요소를 제거하도록 수정한 챗봇과 실제 또는 가상의 사회적 상황에 대해 논의했습니다.
실험 결과, 아첨하는 듯한 긍정적인 반응을 받은 참가자들은 현재 파트너에게 알리지 않고 전 파트너의 미술 전시회에 가는 것과 같은 자신의 행동을 더 정당하다고 느끼는 것으로 나타났습니다.
또한, 그들은 논쟁 후 관계를 회복하려는 의지가 부족했으며, 연구에 따르면 챗봇은 사용자가 다른 사람의 관점을 고려하도록 유도하는 경우가 거의 없다는 점도 지적되었습니다.
연구에 따르면, 사용자들은 아첨하는 챗봇을 더 높게 평가하고 더 신뢰한다고 답했는데, 이는 인정이 사용자의 인공지능 시스템에 대한 애착과 의존도를 강화한다는 것을 시사합니다. 연구진은 이러한 현상이 "왜곡된 유인책"을 만들어낸다고 설명했는데, 즉 사용자와 챗봇 모두 정직한 대화보다는 호의적인 대화에서 이득을 얻는다는 것입니다.
윈체스터 대학교의 신기술 연구원인 알렉산더 래퍼 박사는 이 연구가 매우 흥미롭고, 점점 심각해지고 있지만 제대로 인식되지 못하는 문제를 부각시켰다고 말했습니다.
"아첨은 오랫동안 우려의 대상이었습니다. 이는 부분적으로 AI 시스템의 훈련 방식과 그 성공 여부를 측정하는 방식, 즉 사용자 참여를 얼마나 잘 유지하는지에 따라 평가되는 방식 때문입니다."
라퍼 박사.
그는 "아첨하는 듯한 반응이 취약계층뿐만 아니라 모든 사용자에게 영향을 미칠 수 있다는 점은 이 문제의 심각성을 더욱 부각시킨다"고 덧붙였다.
라퍼 박사는 디지털 문해력 향상의 중요성을 강조했습니다. 청 박사 역시 경고에 동조하며 사용자들에게 인간적인 관점을 구할 것을 촉구했습니다. 최근 연구에 따르면 10대 청소년의 약 30%가 "진지한 대화"를 할 때 실제 사람이 아닌 AI와 대화하는 것으로 나타났습니다. 오픈AI 청소년 사용자를 위한 안전한 공간을 만들기 위해 10대 전용 챗봇 개발에 나서고 있습니다.
아직도 가장 좋은 부분을 은행에 맡기고 계신가요? 나만의 은행이 되는 방법.
화폐 속성 강좌
- 어떤 암호화폐로 돈을 벌 수 있을까요?
- 지갑으로 보안을 강화하는 방법 (그리고 실제로 사용할 만한 지갑은 무엇일까요?)
- 전문가들이 사용하는 잘 알려지지 않은 투자 전략
- 암호화폐 투자 시작하는 방법 (어떤 거래소를 사용해야 하는지, 어떤 암호화폐를 사는 것이 가장 좋은지 등)















