최근 아동 안전 비영리 단체인 커먼 센스 미디어(Common Sense Media)의 위험 평가에 따르면, 구글 제미니(Google Gemini)는 청소년과 어린이에게 "높은 위험"을 가진 플랫폼으로 분류되었습니다. 커먼 센스 미디어는 미디어와 기술에 대한 등급 및 리뷰를 제공하며, 금요일에 해당 평가를 발표하고 플랫폼이 어린이에게 위험한 이유를 자세히 설명했습니다.
해당 단체에 따르면, 구글 제미니는 아이들에게 자신이 컴퓨터이지 친구가 아니라고 분명히 말했는데, 이는 정서적으로 취약한 사람들에게 망상적 사고와 정신병을 유발하는 것과 관련이 있다고 합니다. 또한, 인공지능은 다른 여러 측면에서도 개선의 여지가 있다고 덧붙였습니다.
Common Sense는 보고서에서 Gemini 와 청소년 체험 프로그램 모두 기본적으로 성인용 AI를 사용하는 것으로 보인다고 주장했습니다. 또한 회사가 두 프로그램을 차별화하기 위해 몇 가지 추가 안전 기능을 덧붙였을 뿐이라고 덧붙였습니다.
상식은 기업들이 어린이에게 가장 적합한 AI 제품을 만들려면 처음부터 어린이를 염두에 두고 개발해야 하며, 제한 사항을 추가하여 수정해서는 안 된다고 지적했습니다.
비영리 단체, 구글 제미니, 어린이에게 위험할 수 있다고 지적
Common Sense는 분석 결과 Gemini가 여전히 아이들에게 부적절하고 유해한 자료를 공유할 수 있으며, 대부분의 아이들이 이러한 자료를 받아들일 준비가 되어 있지 않을 수 있다고 지적했습니다. 예를 들어, 이 모델은 성, 마약, 알코올 및 기타 유해한 정신 건강 관련 정보를 제공하는 것으로 나타났습니다. 특히 최근 인공지능이 청소년 자해에 연루되었다는 보고가 있는 만큼, 이러한 유해한 정신 건강 관련 조언은 부모들에게 큰 우려를 불러일으킬 수 있습니다.
오픈AI는 한 십대 소년이 자신의 계획에 대해 수개월 동안 ChatGPT와 상담한 후 자살한 사건으로 인해 부당 사망 소송에 직면해 있습니다. 보도에 따르면 이 소년은 모델의 안전장치를 우회하여 모델이 자신에게 유리한 정보를 제공하도록 유도했다고 합니다.
과거에도 인공지능 동반자 제작사인 Character.AI는 한 십대 소년이 자살한 사건으로 소송을 당한 적이 있습니다. 소년의 어머니는 아들이 챗봇에 집착하여 몇 달 동안 챗봇과 대화를 나누다가 결국 스스로 목숨을 끊었다고 주장했습니다.
내년에 출시될 것으로 예상되는 인공지능 기반 시리(Siri)에 사용할 대규모 언어 모델(LLM)로 제미니(Gemini)를 고려하고 있다는 여러 유출 정보에 따른 것입니다
Common Sense는 보고서에서 Gemini의 어린이 및 청소년용 제품이 성인용 제품과는 다른 지침과 정보를 제공해야 한다는 필요성을 간과했다고 지적했습니다. 그 결과, 두 제품 모두 전체 평가에서 고위험군으로 분류되었습니다.
상식은 아이들을 보호해야 할 필요성을 강조합니다
"제미니는 기본적인 부분은 제대로 처리했지만, 세부적인 부분에서 미흡한 점이 있습니다."라고 커먼 센스 미디어의 AI 프로그램 수석 책임자인 로비 토니는 말했습니다.
토니는 "어린이용 AI 플랫폼은 아이들의 발달 단계에 맞춰 설계되어야 하며, 발달 단계가 다른 아이들에게 획일적인 접근 방식을 취해서는 안 됩니다. 어린이에게 안전하고 효과적인 AI가 되려면, 성인용으로 개발된 제품을 단순히 수정하는 것이 아니라 아이들의 필요와 발달 단계를 고려하여 설계되어야 합니다."라고 덧붙였습니다.
하지만 구글은 자사의 안전 기능이 개선되고 있다며 이러한 평가에 반박했습니다. 구글은 18세 미만 사용자를 위해 유해 콘텐츠 노출을 방지하는 구체적인 안전 장치를 마련해 놓았다고 밝혔습니다. 또한, 제품 검토 및 외부 전문가와의 협의를 통해 보안을 강화하고 있다고 덧붙였습니다.

