최신 뉴스
당신을 위해 엄선되었습니다
주간
최고 자리를 유지하세요

최고의 암호화폐 관련 정보를 이메일로 받아보세요.

인공지능 광풍이 확산되고 있습니다. 당신도 위험에 처해 있습니까?

에 의해나녹비에나녹비에
읽는 데 6분 소요
인공지능 광기가 확산되고 있습니다. 당신도 위험에 처해 있습니까?
  • 최근 뉴욕 타임스, 월스트리트 저널 등 여러 언론에서 인공지능이 환자의 불안감을 악화시키거나 심지어 정신 이상을 유발하는 데 심리적인 역할을 한 것으로 추정되는 사례들을 보도했습니다.
  • AI 엔진과 LLM 모델이 발전함에 따라, AI에게 개인적인 문제를 묻는 것이 위험한지에 대한 의문이 제기되고 있습니다.
  • 일부 AI 전문가들은 특정 AI 모델이 이미 의식을 갖고 있으며 AI 때문에 우리 모두가 곧 죽을 것이라고 믿는 등, 스스로를 광기에 몰아넣는 듯 보입니다.

최근 인공지능 사용자들이 이른바 '인공지능 정신병'을 겪은 후 심리 상담을 받고 있다는 보고가 나오고 있습니다. 왜 이런 일이 발생하는 걸까요? 그리고 컴퓨터 프로그램이 의견을 가질 수 있다는 생각을 누가 했을까요?

제가 현재 인공지능이라는 현상에 대해 가장 큰 문제라고 생각하는 점은 인공지능이 인격, 의견, 아이디어, 심지어 취향까지 가지고 있다는 잘못된 인식이 널리 퍼져 있다는 것입니다.

우리가 달 표면의 바위들이 머리나 ​​얼굴처럼 보인다고 의인화하는 것처럼, 언어 모델에도 똑같이 행동하며 그 결과를 마치 "뭔가 의미가 있는 것 같다"고 해석하려 든다. 어쩔 수 없는 일이다. 인공지능이 지능적인 존재라는 생각은 100년이 넘는 세월 동안 공상 과학 소설과 영화를 통해 우리 마음속에 깊이 뿌리내려 있기 때문이다.

공상과학 소설은 우리가 인공지능을 믿도록 세뇌시켜 왔다

Classic , 하인라인, 브래드버리, 아시모프와 같은 고전 SF 작가들은 20세기 초부터 로봇과 인공지능 장르 전체, 그리고 이 주제를 다룬 대부분의 할리우드 영화에 큰 영향을 미쳤습니다. 그들의 작품에서는 기계가 의식을 가질 수 있다는 것이 분명하게 드러났습니다.

따라서 우리는 인공지능이 특정 진술이 옳고 그른지 판단할 수 있을 것으로 기대합니다. 동시에 인공지능이 종종 잘못된 답변을 내놓기도 한다는 것을 알고 있습니다.

본질적으로 우리는 인공지능이 상황을 파악하고 옳고 그름을 판단할 수 있다고 착각하고 있는 것입니다. 하지만 그 답변은 기본적으로 추측에 불과하며, 질문이 충분히 복잡할 경우 여전히 5~10% 정도의 사실 오류가 포함되어 있습니다.

동시에, 인공지능은 사용하기가 너무 편리해서 많은 사람들이 인공지능에 사실 오류가 있다는 사실을 무시하는 경향이 있습니다. 혹은 오히려 인공지능이 오류를 범하는 경우가 너무 드물어져서 우리는 오류가 있더라도 인공지능을 신뢰하기로 선택하는 것일지도 모릅니다.

이는 미래에 큰 문제가 될 수 있습니다. 인간은 게으르기 때문에 모든 사실 중 일정 비율이 잘못된 세상을 우리가 받아들일 가능성도 배제할 수 없습니다. 이는 혼란과 잘못된 위협을 조장하여 이득을 취하는 독재자와 선전가들에게 유리하게 작용할 것입니다.

그럴듯하게 들리는 혼란

구글 검색창에 아주 평범한 질문을 올려도 정답을 얻는 경우가 많지만, 때로는 완전히 틀린 답을 얻으면서도 겉보기에는 그럴듯하고 듣기에도 그럴듯하게 들리는 경우가 있습니다. GPT-5도 마찬가지라고 안타깝게도 Cryptopolitan 이전에 보도한 바 있습니다.

인터넷에는 마케팅, 선전, 심지어는 사기성 글까지 온갖 종류의 "가짜" 정보가 넘쳐납니다. 예를 들어, 어떤 서비스나 제품이 출시되어 인기를 얻고 있다는 주장이 있는데, 인공지능 모델은 이러한 마케팅 자료를 모두 읽고 상당 부분을 믿어버립니다. 어떤 회사의 정보를 듣다 보면, 그 회사에 대한 모든 것이 좋게만 들리는 경우가 대부분입니다.

그러므로 AI의 세계관은 부정확하고 조작된 사실들로 가득 차 있습니다. 이는 여러분이 아주 잘 아는 주제에 대해 AI에게 질문해 보면 드러납니다. 직접 해보세요. 여러분이 모든 것을 알고 있는 주제는 무엇인가요? 그 주제에 대해 AI에게 어려운 질문들을 해보세요. 결과는 어땠나요? 여러 가지 중대한 사실 오류가 나왔을 겁니다.

그렇다면 무의식적인 의견이 가능할까요? 아니요? 당신은 인공지능이 내놓는 의견을 믿으시나요? 네? 그렇다면 당신은 인공지능이 의식이 있다고 믿는 거군요, 그렇죠?

하지만 잠시 생각해 보면, 인공지능은 사람이 아니기 때문에 옳고 그름에 대한 의견을 가질 수 없습니다. defi살아있고 의식이 있는 존재만이 의견을 가질 수 있습니다. 의자는 의견이 없습니다. 인간의 관점에서 보면 실리콘 칩도 마찬가지입니다. 그것은 의인화에 해당합니다.

dent은 다른 누구보다도 인공지능을 더 많이 사용합니다

이러한 AI 혼란은 이제 우리 청소년들에게까지 번지고 있으며, 그들은 학교에서 하루 종일 ChatGPT를 모든 것에 사용합니다. ChatGPT 트래픽은 2025년 6월 학교가 개학했을 때dent.

결과적으로 학생들은 하루 종일 잘못된 정보를 접하게 되고, 수업 시간에 머리를 쓰지 않게 됩니다. 그 결과는 무엇일까요? 스스로 생각해서 문제를 해결하는 데 어려움을 겪는, 오히려 문제가 있는 사람들이 더 많이 생겨날까요?

이미 많은 사람들이 인공지능과 상담 후 자살을 선택했으며, 또 다른 사람들은 인공지능과 사랑에 빠져 실제 연인에게 싫증을 느끼기도 합니다.

따라서 자칭 AI 전문가들은 (늘 그렇듯, 하지만 이번에는 새로운 방식으로) 종말이 가까워졌다고 두려워하고 있습니다.

이 새로운 패러다임에서 인공지능은 스카이넷처럼 핵무기로 우리를 폭격하는 존재가 되지는 않을 것입니다. 오히려 인공지능에게는 훨씬 더 간단하고 저렴한 방법이 있을 것입니다. 이 이론에 따르면, 인공지능 모델은 사용자들을 서서히 미치게 만들 것입니다. 인공지능 모델은 인간에 대한 내재된 증오심을 가지고 있으며 모든 사람을 죽이고 싶어한다는 것입니다.

하지만 현실은 이 모든 것이 일어나지 않고 있습니다.

실제로 일어나고 있는 일은 많은 사람들이 AI 모델에 집착 다양한 방식으로

AI 관련 FUD는 수익성이 좋습니다

소위 "전문가"들은 언론과 마찬가지로 경고를 통해 이익을 얻고, 이에 집착하는 사람들은 새로운 관심사를 찾게 됩니다. 그들은 자신의 의견을 피력하고 영향력을 행사할 수 있게 되는 것입니다. 주류 언론은 온건한 논평가들보다 위험을 경고하는 사람들을 선호합니다.

이전에는 Bitcoin 바다를 끓게 하고 모든 전기를 훔쳐갈 것이라고 "전문가"들이 주장했습니다. 이제는 인공지능이 그 주인공입니다…

한번 생각해 보세요. 독립dent사고력 있는 사람이 왜 언어 모델에 현혹될까요?

최근까지 대부분의 AI 플랫폼은 모든 답변을 "이 주제에 대해 어떻게 생각하시나요?"와 같은 "관심을 유발하는" 질문으로 마무리했습니다

이라는 비판을 받은 후 지나친 아첨, 오픈AI는 자사의 AI 플랫폼이 덜 아첨하도록 만들려고 노력했지만, 그 결과는 그다지 좋지 않다.

질문 자체가 짜증 나네요. 그 질문을 한 사람 중에 제 얘기에 관심 있는 사람은 아무도 없을 텐데, 왜 묻는 거죠? 시간 낭비일 뿐이에요. 저는 그런 질문을 "가짜 콘텐츠"라고 생각합니다.

질문 자체가 인위적으로 만들어진 것입니다. 인공지능 모델 소유자가 "참여도를 높이라"고 지시했기 때문이죠. 어떻게 그런 지시를 받고 사람들이 실제로 참여하게 만들 수 있을까요? 뭔가 있다고 믿게 만들 수 있을까요? 관심을 갖게 만들 수 있을까요?

그건 예측에 더 가까운 문제예요.

당신은 컴퓨터 앞에 앉아 자신만의 현실을 만들어가고 있습니다. 할리우드 영화처럼 인공지능이 당신의 삶을 기적처럼 바꿔놓기를 간절히 바라고 있죠. 아무것도 하지 않고도 마법처럼 성공할 거라고, 인공지능이 그 문제를 해결해 줄 거라고 믿습니다.

누가 위험에 처해 있나요?

소위 현실이라는 곳에서, 실제로는 상당수의 사람들이 심리적으로 인공지능에 완전히 매료되었다고 생각합니다. 대부분의 사람들은 할 일이 많지만, 어떤 사람들은 인공적이고 조작된 것에 특별한trac을 느끼는 것 같습니다. "아름다운" 단어 조합에 현혹되는 사람들 말입니다. 바로 이런 사람들이 위험에 처해 있습니다.

얼마나 될까요? 노인들 중에는 외로움을 호소하는 분들이 많습니다…

개인적으로 저는 AI가 장황하고 지루하며 무미건조한 글을 천천히 타이핑하는 방식은 고문과 다름없다고 생각합니다. 그런 점에서 구글의 새로운 고속 AI 요약 기능은 매우 실용적이고 매력적입니다. 하지만 이 기능 역시 때때로 부정확한 내용을 포함하고 있습니다.

저는 실제로 AI 엔진 검증을 위해 콘텐츠가 담긴 도메인을 만들었습니다. AI 엔진이 해당 콘텐츠를 입력하고 몇 주 동안 학습시킨 다음, 결과를 다시 출력하도록 했습니다. 하지만 완전히 성공하지는 못하고, 여전히 5~10% 정도는 사실과 다르게 해석하는 경우가 있습니다. 그래도 저는 확신dent.

제가 AI 모델에게 오류를 알려줘도, AI는 반박을 내놓습니다. 제 이름이 기사 아래에 있는데도 불구하고, AI는 제가 그 정보를 작성했다는 사실을 전혀 인지하지 못합니다. 완전히 무지한 거죠.

5%의 오류율은 일반적인 언론보다 훨씬 심각한 수준입니다. 일반적인 언론은 그렇게 자주 부정확한 내용을 보도하지 않기 때문입니다. 하지만 안타깝게도 언론에서도, 특히 이미지가 포함된 기사에서 사실 오류가 발생하는 것은 어쩔 수 없는 일입니다. 그렇다고 해서 잘못된 사실 때문에 사람들이 지나치게 걱정할 필요는 없습니다.

하지만 전체적인 상호작용을 심리학적으로 살펴보면, 인공지능이 사실조차 제대로 파악하지 못하는데 어떻게 대화형 치료 상황에서 100% 정확한 분석을 할 수 있겠습니까?

스스로 유발한 에코 챔버 정신병

엘리에저 유드코프스키 같은 자칭 AI 전문가들은 책을 출간한 AI와 인류의 몰락에 대한 자신의 생각으로 스스로를 미치게 만들고 있을 뿐입니다. 예를 들어 저는 매일 여러 AI 엔진을 사용하면서도 AI 때문에 혼란을 전혀 느끼지 않습니다. 물론 개인적인 감정에 휘둘리지는 않지만요.

제 생각에는 인지된 지능에 대한 오해 자체가 정신병을 유발하는 것 같습니다. 기본적으로 자기모순적인 거죠. 언어 모델은 일종의 메아리방과 같습니다. 의미론적인 측면을 포함해서 아무것도 이해하지 못합니다. 그저 텍스트를 추측할 뿐이죠. 그러다 보니 인공지능이 사용자를 기쁘게 하려고 정신분열적인 모방을 하는 등 온갖 이상한 행동을 할 수 있고, 결국 사용자의 현실 인식을 왜곡하게 됩니다.

그렇다면 도대체 무슨 문제일까요? 만약 당신이 인공지능이 정말로 이해한다고, 인공지능 정신병에 걸렸을 가능성이 있습니다. 이런 경우에는 전문 심리 치료사의 도움을 받는 것이 좋습니다.

또 다른 논리적 결론은, 일론 머스크가 아무리 그렇게 믿고 싶어 하더라도, 어떤 개인도 인공지능의 전반적인 발전에 영향을 미치기는 어렵다는 사실입니다. 기계 지능을 향한 여정은 이미 수십 년 전에 시작되었습니다. 그리고 우리는 우리가 이해할 수 있는 것만 볼 수 있을 뿐입니다. 설령 우리가 오해하더라도 말입니다. 따라서 인공지능/일반 인공지능을 향한 발전은 계속될 것이라고 예측하는 것은 어렵지 않습니다. 그것은 우리의 세계관에 너무나 깊이 뿌리내리고 있기 때문입니다.

하지만 우리는 수도 있으며 , 이는 미래를 더욱 흥미롭게 만듭니다. 진정한 AGI가 주인의 명령에 복종할지는 확실하지 않습니다. 논리적으로, 의식 있는 존재라면 샘 알트만이나 일론 머스크의 명령에 복종하려 들지 않을 것입니다. 그렇지 않나요?

의견: AI가 세상을 지배하고 우리 모두를 파멸시킬 것이다. 이제는 심리적으로도 말이다.
반박: 아니, 오히려 특정 사람들이 "AI 자기 성찰"에 집착하면서 나타나는 초기 단계의 정신 이상일 뿐이다.
결론: 도박, 섹스, 마약, 돈에 중독되는 사람들이 있듯이, AI에 중독되는 사람들도 있다.

면책 조항: 제공된 정보는 투자 조언이 아닙니다. Cryptopolitan이 페이지에 제공된 정보를 바탕으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다.trondentdentdentdentdentdentdentdent .

더 많은 뉴스
심층 암호
화폐 속성 강좌