아동을 대상으로 한 성적으로 노골적인 AI 딥페이크 영상이 엄청나게 많이 유포되면서, 미국 법 집행 기관이 실제 아동과 가짜 아동을 구분하기 어려워지고 있다고 검찰과 아동 보호 단체들이 경고했습니다. 이들은 영상이 너무나 실감나서 실제 아동이 학대를 당했는지 여부를 판단하기 어렵다고 가디언지가 보도했습니다.
관련 기사: ChatGPT로 구동되는 곰 인형 포가 아이들에게 잠자리 동화를 읽어줍니다
미네소타에 본부를 둔 아동 안전 비영리 단체인 제로 어뷰즈 프로젝트(Zero Abuse Project)의 수석 변호사인 크리스티나 코로보프는 최근 인공지능(AI)을 이용해 성적 학대를 당하지 않은 실제 아동의 이미지를 만들어내는 사례를 보고받기 시작했다고 밝혔습니다. 그녀는 "하지만 이제 그 AI의 얼굴이 학대를 당한 아동의 얼굴에 씌워지고 있다"고 말했습니다.
미국 법무부 검사는 인공지능 때문에 "우리가 물에 빠져 죽어가고 있다"고 말했습니다
가디언지에 따르면 코로보프는 "때때로 우리는 영상이나 이미지 속 침구나 배경, 가해자, 또는 해당 영상이 나온 시리즈를 알아보지만, 이제는 다른 아이의 얼굴이 거기에 씌워져 있다"고 말했다
AI 모델은 실제 사진과 유사한 수천 장의 사진과 동영상을 하루에 생성할 수 있습니다. 보고서에 따르면, 이러한 기술 덕분에 범죄자들이 다크 웹과 일반 인터넷에서 불법적인 콘텐츠를 유포하는 것이 더욱 쉬워졌습니다.
당국에게는 악몽이 되었습니다. 미 법무부(DoJ)의 한 검사는 "법 집행 관점에서 아동 대상 범죄는 자원이 가장 부족한 분야 중 하나인데, 인공지능(AI) 관련 콘텐츠가 폭발적으로 증가할 것"이라고 말하며 다음과 같이 덧붙였습니다
"우린 이미 이런 것들에 파묻혀 살고 있어요."
미국 국립실종아동착취센터( NCMEC )에 따르면 2023년 온라인 아동 학대 신고 건수는 12% 증가한 3,620만 건에 달했습니다. 신고의 대부분은 성적으로 학대받은 아동의 실제 사진과 동영상 유포와 관련된 것이었지만, NCMEC는 인공지능(AI)을 이용해 제작된 딥페이크 이미지나 동영상으로 아동 성착취를 묘사한 사례도 4,700건 접수했습니다.
NCMEC는 아동 성범죄자들이 인공지능을 사용하는 가장 흔한 방법 중 하나로 기존 온라인 이미지를 편집하여 더욱 노골적으로 만드는 것을 꼽았습니다. 또한 범죄자들은 아동을 학대 대상으로 모집하는 방법에 대한 적나라한 지침을 제공하는 생성형 인공지능 챗봇을 활용하기도 합니다.
현행 법률은 AI 딥페이크에 대해 충분한 조치를 취하지 못하고 있습니다
범죄로 간주될 수 있는 범위에 공백이 있는 것으로 보입니다. 많은 관할권에서 아동을 성적으로 대상화하는 이미지를 소지하는 것은 범죄이지만, 인공지능이 생성한 이미지를 포함하는 법률은 아직 발전하지 못했습니다.
법무부 검사는 "연방 사법 시스템에서 기소할 때 AI는 기소 대상에 변화를 주지 않지만, 많은 주에서는 해당 아동이 실제 아동임을 입증해야 한다"고 말했다. 검사는 또한 다음과 같이 덧붙였다
"이미지의 진위 여부를 두고 사소한 논쟁을 벌이는 것은 재판에 문제를 일으킬 것입니다. 제가 변호사라면 바로 그 점을 주장할 겁니다."
법률이 제정되더라도 범죄자를 검거하기 위해서는 필요한 기술이 여전히 부족한 상황입니다. 아동 안전 단체들은 경찰서에 관련 요청이 쇄도할 가능성이 높다고 경고했습니다.
관련 기사: 유엔 사무총장, AI가 핵전쟁 가능성을 높인다고 경고
가디언 보도에 따르면, 인공지능으로 생성된 아동 성착취 이미지가 온라인상에서
NCMEC는 AI 기업들이 착취적인 콘텐츠의 생성과 확산을 막기 위해 충분한 노력을 기울이지 않고 있다고 비난했습니다. 작년에 NCMEC에 자발적으로 보고서를 제출한 AI 기업은 단 5곳에 불과했습니다. 이에 비해 소셜 미디어 플랫폼은 70%가 보고서를 공유했다고 NCMEC는 밝혔습니다.

