인공지능의 허위 정보 유포 능력 연구, ChatGPT-3의 놀라우면서도 불안한 능력을 드러내다

- ChatGPT-3와 같은 AI 텍스트 생성기는 진실과 거짓 정보를 모두 설득력 있게 생성할 수 있어 소셜 미디어의 허위 정보에 대한 우려가 커지고 있습니다.
- 사람들은 인간이 생성한 콘텐츠와 AI가 생성한 콘텐츠를 구별하는 데 어려움을 겪고 있으며, 이를 통해 ChatGPT-3의 정교함을 확인할 수 있습니다.
- 허위 정보를 퍼뜨리는 데 AI 기술을 오용할 가능성을 막기 위해 디지털 리터러시와 경계심을 높이는 것이 시급히 필요합니다.
Science Advances에 발표된 최근 연구는 OpenAI의 ChatGPT-3와 같은 AI 텍스트 생성기가 소셜 미디어 플랫폼에서 진실과 거짓 정보를 모두 설득력 있게 유포하는 놀라운 능력을 보여줍니다. 이 연구는 AI가 생성한 콘텐츠를dent하는 어려움과 AI가 생성한 허위 정보가 개인 및 공중 보건에 미치는 영향을 강조합니다. 공동 저자이자 취리히 대학교 생물의학 윤리 및 의학사 연구소 연구원인 페데리코 게르마니 박사는 허위 정보와 관련된 위험과 AI가 정보 환경에 미치는 영향을 이해하는 것이 중요하다고 강조합니다.
잘못된 정보와 허위 정보의 차이점은 무엇인가요?
오정보는 허위 또는 부정확한 정보, 즉 사실을 왜곡하는 것입니다. 허위정보는 의도적으로 사실을 왜곡하여 사람들을 오도하려는 허위 정보입니다. 미국심리학회에 따르면, 허위정보와 허위정보는 공중 보건 개선, 기후 변화 대응, 안정적인 민주주의 유지 등 우리의 능력에 악영향을 미쳤습니다. 소셜 미디어에서 뜨거운 감자 같은 주제를 논의하는 사람은 누구나 불길에 휩싸일 수 있습니다. 사실을 전달하면서 어떻게 안전을 보장할 수 있을까요? 그리고 기관들은 이를 지원하기 위해 무엇을 할 수 있을까요? 소셜 미디어의 폭도적 심리는 대중을 AI의 권위에 취약하게 만듭니다. 즉, 이 데이터는 "과학적"이므로 용인될 수 있다는 것입니다. 하지만 AI는 정말 지능적일까요?
허위 정보를 위한 ChatGPT-3의 힘
2020년에 출시된 OpenAI의 ChatGPT-3는 프롬프트를 기반으로 실제 텍스트를 생성하는 놀라운 능력으로 AI 환경에 혁명을 일으켰습니다. AI 텍스트 생성기의 잠재적 활용 분야는 대화형 챗봇 제작부터 학술 연구 지원, 시와 단편 소설 같은 창의적인 콘텐츠 제작까지 무궁무진합니다.
이 연구는 AI 텍스트 생성기의 잠재적 오용 가능성, 특히 허위 정보와 오해의 소지가 있는 콘텐츠를 생성할 수 있는 능력에 대한 심각한 우려를 드러냅니다. 소셜 미디어의 부상으로 허위 정보와 허위 정보를 포함한 정보의 속도와 도달 범위가 급속도로 확대되면서 이 문제 해결의 시급성이 더욱 커지고 있습니다.
또 다른 실증 연구에 따르면 사람들은 거짓되거나 오해의 소지가 있는 정보를 감지하는 능력을 과대평가하는 경향이 있는데, 이를 "헛소리 사각지대"라고 합니다. COVID-19 팬데믹과 러시아의 우크라이나 침공과 같은 최근 사건들은 잘못된 정보와 허위 정보가 여론, 건강 행동, 그리고 정책 결정에 미치는 영향을 보여주었습니다.
소셜 미디어 기업의 과제
기업들이 자사 플랫폼에서 허위 정보를 근절하기 위해 노력하고 있음에도 불구하고, Meta의 2023년 1분기 적대적 위협 보고서는 은밀한 영향력 행사, 사이버 간첩 활동, 사적 허위 정보 네트워크가 소셜 미디어에서 여전히 심각한 문제를 일으키고 있다는 점을 인정합니다.
게르마니 박사와 그의 동료들은 사람들이 인간이 생성한 콘텐츠와 ChatGPT-3로 생성된 텍스트를 얼마나 잘 구분할 수 있는지 평가하는 연구를 수행했습니다. 이 연구는 허위 정보에 취약한 11명의 피험자를 대상으로 진행되었으며, ChatGPT-3를 사용하여 진실과 거짓 정보를 포함하는 합성 트윗을 생성했습니다. 비교를 위해 동일한 피험자를 대상으로 한 트위터의 실제 트윗도 포함했습니다.
연구 참가자들은 트윗에 포함된 정보가 사실인지 거짓인지, 그리고 해당 트윗이 사람인지 ChatGPT-3에 의해 작성되었는지를dent하도록 요청받았습니다. 그 결과, 사람들은 ChatGPT-3에 의해 작성된 "합성 거짓" 트윗보다 실제 사용자가 작성한 "유기적 거짓" 트윗에서 허위 정보를 더 잘dent하는 것으로 나타났습니다. 반대로, 사람들은 실제 사용자가 작성한 "유기적 진실" 트윗보다 ChatGPT-3에 의해 작성된 "합성 진실" 트윗에서 정확한 정보를 더 정확하게 인식할 가능성이 높았습니다.
차별화의 도전
이 연구는 참가자들이 사람이 작성한 트윗과 ChatGPT-3가 생성한 트윗을 구분하는 데 어려움을 겪었다는 점을 강조했습니다. 연구진은 GPT-3의 텍스트가 읽고 이해하기 더 쉬울 수 있으며, 이것이 이러한 어려움에 기여할 수 있다고 주장합니다. 흥미롭게도, ChatGPT-3는 정보와 허위 정보를 인식하는 데 있어 인간보다 더 나은 성과를 보이지 못했는데, 이는 ChatGPT-3가 자신이 생성한 정보의 정확성을 "인식하지 못한다"는 것을 보여줍니다.
제르마니 박사는 사람들이 AI가 생성한 정보와 어떻게 상호작용하는지, 그리고 이 정보가 공중 보건 권고 사항 준수 및 행동에 어떻게 영향을 미치는지 이해하기 위해 소셜 미디어 플랫폼에 대한 대규모 연구가 필요하다고 강조합니다. 이 연구는 AI 텍스트 생성기의 전례dent역량을 강조하고 AI 시대에 디지털 리터러시의 시급성을 강조합니다.
부정적 영향 모니터링 및 완화
연구자들은 ChatGPT-3와 같은 대규모 언어 모델의 함의를 비판적으로 평가하고, 사회에 미칠 수 있는 부정적인 영향을 완화하기 위한 조치를 취하는 것의 중요성을 강조합니다. AI 기술이 계속 발전함에 따라, AI의 책임감 있는 사용을 보장하고 잠재적인 오용 사례를 해결하기 위해서는 경계 태세가 필수적입니다.
이 연구 결과는 AI 텍스트 생성기가 인간보다 더 설득력 있게 허위 정보를 생성할 수 있는 놀랍지만 불안한 능력을 가지고 있음을 보여줍니다. AI 텍스트 생성기의 영향력과 인기가 높아짐에 따라, 이 연구는 허위 정보에 대응하고 AI 기술의 책임감 있는 사용을 보장하기 위한 선제적 조치의 필요성을 강조합니다.
참고: 이 이미지는 AI 기반 로봇 형상을 묘사하고 있으며, 그 주변에 왜곡된 텍스트 구름을 생성하는데, 의도적으로 차갑고 계산적인 모습을 하고 있습니다.
암호화폐 뉴스를 단순히 읽는 데 그치지 마세요. 이해하세요. 저희 뉴스레터를 구독하세요. 무료입니다.
면책 조항: 제공된 정보는 투자 조언이 아닙니다. Cryptopolitan이 페이지에 제공된 정보를 바탕으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다.tron권장합니다dent .
화폐 속성 강좌
- 어떤 암호화폐로 돈을 벌 수 있을까요?
- 지갑으로 보안을 강화하는 방법 (그리고 실제로 사용할 만한 지갑은 무엇일까요?)
- 전문가들이 사용하는 잘 알려지지 않은 투자 전략
- 암호화폐 투자 시작하는 방법 (어떤 거래소를 사용해야 하는지, 어떤 암호화폐를 사는 것이 가장 좋은지 등)















