스탠포드 인터넷 관측소(Stanford Internet Observatory)는 인공지능 이미지 생성기 학습에 사용되는 데이터셋인 LAION-5B에서 1,000개가 넘는 가짜 아동 성학대 이미지를 발견하는 충격적인 사실을 밝혀냈습니다. 지난 4월 공개된 이 발견은 인공지능 학습 자료의 출처와 수집 방법에 대한 심각한 우려를 불러일으켰습니다.
런던에 본사를 둔 Stability AI의 Stable Diffusion AI 이미지 생성기와 관련된 LAION-5B는 소셜 미디어와 음란 웹사이트의 콘텐츠를 샘플링하여 이러한 이미지를 수집했습니다. 이러한 플랫폼의 광범위한 사용과 잠재적 영향력을 고려할 때, AI 학습 자료에서 이러한 콘텐츠가 발견된 것은 매우 우려스러운 일입니다.
기술을 활용하여 문제를 해결합니다
스탠퍼드 연구진은 이러한 이미지를dent하기 위해 학대 콘텐츠를 직접 시청하지 않았습니다. 대신, 마이크로소프트의 PhotoDNA 기술을 활용했는데, 이 기술은 해시 처리된 이미지를 다양한 데이터베이스의 알려진 학대 콘텐츠와 대조하여 아동 학대 이미지를 탐지하도록 설계된 도구입니다.
미국과 캐나다의 관련 비영리 단체에 전달된 스탠포드 연구팀의 연구 결과는 AI 학습 데이터셋 관리에 있어 더욱 엄격한 조치가 시급히 필요함을 강조합니다. 연구진은 향후 데이터셋 구축 시 유해 콘텐츠를 걸러내기 위해 PhotoDNA와 같은 도구를 사용할 것을 제안합니다. 하지만 중앙 집중식 호스팅 기관이 없는 상황에서 공개 데이터셋을 정제하는 데 따르는 어려움도 지적합니다.
해당 보고서에 대한 대응으로, 대규모 인공지능 개방형 네트워크(LAION)는 데이터 세트의 안전을 확보한 후 재게시하기 위해 일시적으로 데이터 세트를 삭제했습니다. LAION은 불법 콘텐츠에 대한 무관용 정책과 이러한 민감한 자료를 다룰 때의 주의를 강조했습니다.
더 넓은 의미와 대응 방안
이 문제는 해당 데이터셋에만 국한된 것이 아닙니다. 스탠포드 보고서에 따르면, 소수의 학대 이미지만으로도 AI 도구에 상당한 영향을 미쳐 수천 개의 딥페이크를 생성할 수 있게 됩니다. 이는 실제 피해자에 대한 학대를 지속시키고 증폭시키기 때문에 전 세계 청소년과 아동에게 심각한 위협이 됩니다.
많은 생성형 AI 프로젝트들이 서둘러 시장에 출시된 것에 대해 비판이 제기되고 있으며, 스탠포드 인터넷 관측소의 최고 기술 책임자인 데이비드 틸과 같은 전문가들은 데이터셋 수집에 더욱 엄격한 주의를 기울여야 한다고 주장합니다. 틸은 이처럼 광범위한 인터넷 데이터 수집은 연구 목적으로만 사용되어야 하며, 철저한 검증 없이 오픈소스로 공개되어서는 안 된다고 강조합니다.
이러한 연구 결과를 바탕으로 LAION 데이터셋의 주요 사용자 중 하나인 Stability AI는 오용 위험을 완화하기 위한 조치를 취했습니다. Stable Diffusion 모델의 최신 버전은 유해 콘텐츠 제작을 더욱 어렵게 만들도록 설계되었습니다. 그러나 작년에 출시된 이전 버전은 여전히 위험성을 내포하고 있으며 다른 애플리케이션에서 널리 사용되고 있습니다.
이 문제에 대한 국제적인 반응은 다양합니다. 미국 정부는 AI 모델이 제기하는 위험을 평가하기 위해 AI 안전 연구소를 설립하고 있습니다. 마찬가지로 호주는 AI가 생성한 아동 성학대 자료의 공유를 막기 위한 새로운 알고리즘을 도입하고 있습니다. 영국에서는 주요 AI 개발업체들이 새로운 모델을 출시하기 전에 정부와 협력하여 테스트하기로 합의했습니다.
영국에서 열린 세계 AI 안전 정상회의에서 미국과 인도, 유럽연합을 포함한 25개국 이상이 "블레츨리 선언"에 서명했습니다. 이 협약은 AI 감독에 대한 공통된 접근 방식을 수립하고, AI 위험을 책임감 있게 관리하겠다는 국제사회의 의지를 강조하는 것을 목표로 합니다.
인공지능 학습 데이터셋에서 아동 포르노가 발견된 것은 심각한 윤리적 및 안전상의 문제를 야기합니다. 이는 인공지능 기술 개발에 있어 더욱 엄격한 데이터 관리 및 모니터링 체계가 필요함을 강조합니다. 인공지능이 계속 발전하고 삶의 다양한 영역에 스며들면서, 이러한 기술의 윤리적 사용과 안전한 배포를 보장하는 것이 더욱 중요해지고 있습니다.

