노트르담 대학교 연구팀은 소셜 미디어 조사 분야에서 연구 프로젝트를 수행한 결과, 일반 대중이 다양한 온라인 플랫폼에서의 정치 토론 중에 인간과 인공지능을 구분하는 데 많은 어려움을 겪는다는 사실을 발견했습니다.
맞춤형 마스토돈 플랫폼을 활용하여 3단계에 걸쳐 진행된 이 연구에 따르면 참가자들은 AI 봇을 사람으로 오인하는 경우가 58%에 달하는 것으로 나타났습니다.
AI 봇이 정치 담론에서 인간의 경계를 모호하게 만든다는 연구 결과가 나왔습니다
노트르담 대학교 연구 컴퓨팅 센터의 폴 브레너 박사의 지도 하에 진행된 조사팀은 GPT4, Llama-2-Chat, Claude 2를 포함한 생성 네트워크 기반의 AI 봇을 활용했습니다.
이번 세대의 챗봇은 세계 정세 분야에서 정치적 주체로 활용될 수 있도록 다양한 성격을 갖도록 설계되었으며, 더욱 인간적인 특성을 띠고 다양한 정치적 논의에 참여하도록 만들어졌습니다.
그것의 묘미는 각 봇이 고유한 성격(상세한 프로필을 가진 인격의 발현)을 지니고 있었고, 개인적인 경험과 더 넓은 세상의 사건들 사이의 연관성을 도출하도록 지시받았다는 사실에 있었습니다.
데이터 조작과 관련하여, 패널 참가자들은 자신이 사람과 봇과 상호 작용하고 있다는 것을 인지하고 있었음에도 불구하고, 표본 집단의 절반 정도는 인공지능과 실제 사람을 구분하지 못했습니다.
이러한 증거는 AI봇이 대화 패턴 면에서 인간과 매우 흡사하게 모방할 수 있음을 보여주며, 이는 AI봇이 허위 정보를 퍼뜨리는 데 악용될 가능성을 높입니다.
인공지능이 허위 정보 유포에 미치는 역할
폴 브레너 씨는 이러한 AI 봇의 도입과 그로 인한 연쇄 효과, 즉 AI 기반 봇이 여론에 영향을 미치고 허위 정보를 퍼뜨릴 가능성과 같은 문제들을 제기했습니다.
그는 시뮬레이션 속 인공지능이 매우 효과적이어서 인터넷상의 모든 사람이 정보의 출처에 대해 쉽게 속을 수 있다고 설명했습니다.
이 연구에서 강조된 또 다른 중요한 측면은 다양한 AI 모델을 평가하는 과정에서 여러 LLM 모델 간의 정확도 차이가 크지 않다는 점을 보여준 것입니다. 이는 정교하지 않은 모델조차도 소셜 미디어 상호작용 시나리오에서 인간과 유사한 대화를 만들어내는 데 충분히 설득력이 있다는 것을 입증합니다.
따라서 브레너는 무엇보다도 첫 줄에서 인공지능을 활용하여 허위 정보 확산을 방지하는 다차원적 접근 방식에 대한 자신의 입장을 강조했습니다.
교육 캠페인, 입법 조치, 소셜 미디어 계정 검증 강화와 같은 여러 가지 방안들이 함께 추진되어 이 문제를 완전히 해결하는 데 도움이 될 것입니다. 또한, 청소년의 인공지능(AI) 노출이 심리 건강에 미치는 영향도 고려하여 그 악영향을 최소화하기 위한 전략을 개발할 계획입니다.
본 연구 프로젝트는 소셜 네트워크에서 인공지능과 온라인 정보의 신뢰성 사이의 불균형을 강조하며, 이러한 상황에 대처하기 위한 통합 전략 개발의 필요성을 역설합니다.

