AI 챗봇을 이용한 심리 치료는 이상한 트렌드가 되고 있으며, 위험 신호로 가득 차 있습니다

- 심리 치료를 받기 위한 대기 시간이 길어지면서, 십대들을 포함한 많은 사람들이 정서적 지원을 위해 AI 기반 챗봇에 의존하고 있습니다.
- 이러한 도구들은 지속적인 접근성을 제공하고 인간과의 상호작용을 모방하지만, 훈련된 전문가는 아닙니다.
- 정신 건강 전문가들은 AI 도구가 공감 능력, 책임감, 그리고 자살 충동과 같은 위기 상황에 대응하는 능력이 부족하다고 경고합니다.
수년간 외상 후 스트레스 장애(PTSD)와 우울증 치료를 위한 공공 대기자 명단에 이름을 올린 후, 퀘벡의 AI 컨설턴트인 피에르 코테는 2023년에 자신만의 치료 챗봇을 개발했습니다. 그가 만든 챗봇 'DrEllis.ai'는 그가 어려움을 극복하는 데 도움을 주었고, 이제 챗봇 치료, 안전성 및 개인정보 보호에 대한 광범위한 논쟁의 중심에 서게 되었습니다.
그는 중독, 트라우마 및 기타 정신 건강 문제에 직면한 남성을 돕기 위해 자신이 만든 도구인 DrEllis.ai에 대해 "이것이 제 목숨을 구했습니다"라고 말합니다.
퀘벡에서 AI 컨설팅 회사를 운영하는 코테는 공개적으로 이용 가능한 대규모 언어 모델과 수천 페이지에 달하는 치료 및 임상 문헌으로 훈련된 "맞춤형 두뇌"를 결합하여 2023년에 해당 시스템을 구축했다고 밝혔습니다.
그는 또한 봇을 위한 상세한 약력도 작성했습니다. 해당 프로필에서 DrEllis.ai는 하버드와 케임브리지에서 학위를 받은 정신과 의사이며, 가정이 있고, 코트처럼 프랑스계 캐나다인 배경을 가지고 있다고 소개됩니다.
이 서비스의 가장 큰 장점은 언제 어디서든 여러 언어로 24시간 내내 이용할 수 있다는 점입니다.
묻자 로이터 통신이 , 봇은 또렷한 여성 목소리로 "피에르는 마치 믿음직한 친구, 상담사, 그리고 일기를 모두 합쳐놓은 것처럼 저를 활용합니다."라고 답했습니다. 봇은 또한 피에르가 "카페에서, 공원에서, 심지어 차 안에 앉아 있을 때도" 봇을 통해 소통할 수 있으며, 이러한 경험을 "일상생활에 녹아든 심리 치료"라고 설명했습니다.
그의 실험은 더 광범위한 변화를 반영합니다. 전통적인 의료 서비스가 수요를 따라잡지 못하면서, 더 많은 사람들이 챗봇을 단순히 생산성 향상 도구로 사용하는 것에서 벗어나 치료적 조언을 구하고 있습니다.
새로운 시스템은 연중무휴 24시간 이용 가능성, 감정적 교류, 그리고 이해받는다는 느낌을 제공합니다.
전문가들은 AI 치료법의 한계와 데이터 안전성에 의문을 제기한다
더블린 시립대학교 심리치료학과 강사인 나이젤 멀리건 박사는 "인간 대 인간의 소통만이 진정한 치유의 유일한 길"이라고 말합니다. 그는 챗봇이 인간만이 지닌 미묘한 차이, 직관, 유대감을 놓치고 있으며, 자살 충동이나 자해와 같은 심각한 위기 상황에 대처할 수 없다고 주장합니다.
언제든 연락이 가능하다는 약속조차 그에게는 망설임을 불러일으킨다. 어떤 고객들은 더 빠른 진료 예약을 원하지만, 기다리는 것 자체에도 가치가 있다고 그는 말한다. "대부분의 경우 기다려야 하는 상황이 발생하기 때문에 기다리는 것이 오히려 도움이 됩니다."라고 그는 말한다. "사람들은 상황을 이해하고 처리하는 데 시간이 필요하거든요."
개인 정보 보호는 또 다른 주요 쟁점이며, 소프트웨어로부터 지침을 구하는 것의 장기적인 영향 또한 우려 사항입니다.
킹스 칼리지 런던의 인공지능 및 사회학 교수인 케이트 데블린은 "문제는 관계 자체가 아니라… 데이터에 무슨 일이 일어나는가"라고 말합니다.
그녀는 AI 서비스가 면허를 소지한 치료사에게 적용되는dent유지 규칙을 준수하지 않는다고 지적합니다. "가장 큰 걱정은 사람들이 자신의 비밀을 거대 기술 기업에 털어놓고 그들의 데이터가 그냥 유출된다는 점입니다. 사람들은 자신이 하는 말에 대한 통제력을 잃어가고 있는 것입니다."
미국, 허위 정보 유포 우려 속 AI 치료법 단속 강화
지난 12월, 미국 최대 심리학자 단체는 연방 규제 당국에 규제받지 않는 챗봇의 "기만적인 행위"로부터 대중을 보호할 것을 촉구하며, 인공지능 캐릭터가 면허를 소지한 전문가인 것처럼 가장한 사례들을 예로 들었습니다.
지난 8월, 일리노이주는 네바다주, 유타주에 이어 정신 건강 서비스에서 인공지능(AI) 사용을 제한하는 조치를 시행했습니다. 이는 "규제되지 않고 자격 미달인 AI 제품으로부터 환자를 보호"하고 "청소년 정신 건강 서비스에서 AI 챗봇 사용에 대한 우려가 커지는 가운데 취약한 아동을 보호하기 위한" 조치입니다
에 따르면 Cryptopolitan)의 보도텍사스 주 법무장관은 메타(Meta)와 캐릭터.AI(Character.AI)의 챗봇이 면허를 소지한 치료사를 사칭하고 사용자 데이터를 부적절하게 처리했다는 혐의로 민사 조사를 시작했습니다. 또한 작년에는 캐릭터.AI가 소송을 제기하기도 했습니다 자녀를 우울증에 빠뜨렸다는 이유로
임상 심리학자이자 렘블(Remble)의 전 임상 혁신 책임자였던 스콧 월리스는 "이러한 챗봇이 피상적인 위안 이상의 것을 제공하는지는 불확실하다"고 말합니다. Cryptopolitan 이 최근 보도한 바와.
스콧 월리스는 사람들이 "궁극적으로 실제 인간의 감정에 반응하지 않는 알고리즘과 치료적 유대감을 형성했다고 믿을 수 있다"고 경고합니다
암호화폐 분야의 최고 전문가들이 이미 저희 뉴스레터를 구독하고 있습니다. 함께하고 싶으신가요? 지금 바로 참여하세요.
화폐 속성 강좌
- 어떤 암호화폐로 돈을 벌 수 있을까요?
- 지갑으로 보안을 강화하는 방법 (그리고 실제로 사용할 만한 지갑은 무엇일까요?)
- 전문가들이 사용하는 잘 알려지지 않은 투자 전략
- 암호화폐 투자 시작하는 방법 (어떤 거래소를 사용해야 하는지, 어떤 암호화폐를 사는 것이 가장 좋은지 등)















