인공지능(AI) 분야의 투명성과 책임성을 확보하기 위한 조치로, 개인정보보호위원회(PDPC)는 AI 시스템 학습에 개인정보가 어떻게 활용되는지 소비자에게 알리는 방안을 담은 새로운 가이드라인을 발표했습니다. 'AI 추천 및 의사결정 시스템에서 개인정보 이용에 관한 자문 가이드라인'이라는 제목의 이 가이드라인은 데이터 프라이버시 및 AI 기술의 윤리적 문제에 대한 우려를 해소하는 것을 목표로 합니다.
AI 시스템 훈련 – 투명한 데이터 사용을 위한 가이드라인
3월 1일에 발표된 이 가이드라인은 사용자의 개인 데이터 사용 이유와 해당 데이터가 AI 시스템 기능에 어떻게 활용되는지 구체적으로 알려주는 것이 중요하다고 강조합니다. 기업은 소비자에게 제공하는 서비스와 관련하여 사용자 데이터의 중요성을 알리고 AI 기반 의사 결정에 영향을 미치는 요소를 명확히 설명해야 합니다. 예를 들어, 스트리밍 서비스를 이용하는 사용자는 시청 기록 데이터가 장르나 자주 시청하는 영화 등 사용자의 선호도에 맞춘 영화 추천을 개선하는 데 활용된다는 사실을 고지받아야 합니다.
이 가이드라인은 개인정보보호법에 따라 수집된 개인정보를 추가 동의 없이 사용할 수 있는 범위에 대해 명확히 제시합니다. 기업은 이러한 데이터를 연구 및 사업 개선 활동 등 다양한 목적으로 활용할 수 있으며, 예를 들어 고객 선호도를 파악하기 위한 AI 모델 개선이나 인재 추천을 위한 인적 자원 시스템 최적화 등에 사용할 수 있습니다. 특히, 이 가이드라인은 사이버 보안 위험을 완화하고 사용자 개인정보를 보호하기 위해 데이터 익명화 및 최소화의 필요성을 강조합니다.
또한, 가이드라인은 데이터 보호 원칙 및 발전하는 모범 사례 준수를 보장하기 위해 지속적인 모니터링 및 검토 프로세스의 중요성을 강조합니다. 기업은 특히 AI 시스템과 관련하여 데이터 처리 절차의 효과성을 정기적으로 평가하고 사용자 개인 정보 보호 및 신뢰를 유지하기 위해 필요한 조정을 해야 합니다.
업계의 우려사항과 제안에 대한 답변
이번 가이드라인 발표는 2023년 12월 싱가포르 AI 컨퍼런스에서 제기된 업계의 우려에 대한 대응으로 이루어졌습니다. 기술, 법률, 금융 기관을 포함한 이해관계자들은 AI 데이터 프라이버시에 대한 우려를 표명했고, 이에 따라 개인정보보호위원회(PDPC)가 주도한 공개 의견 수렴 절차가 2023년 8월에 마무리되었습니다. 특히 사이버 보안 기업 카스퍼스키는 AI 학습 목적의 데이터 수집에 대한 소비자의 인식이 부족하다고 지적했습니다. 카스퍼스키는 AI 모델 개발 및 테스트 단계에서 명시적인 동의를 구하고, 사용자가 자신의 데이터가 AI 학습에 사용되는 것을 거부할 수 있는 옵션을 제공할 것을 권고했습니다.
또한 업계 관계자들은 이번 가이드라인이 AI 시스템에 대한 신뢰와 투명성을 높이는 데 기여할 것으로 환영했습니다. 이제 기업들은 AI 데이터 활용의 복잡성을 윤리적이고 책임감 있게 다룰 수 있게 되었으며, 이를 통해 책임감 있는 문화와 소비자 권익 신장을 도모할 수 있을 것입니다.
인공지능(AI)이 다양한 분야에 확산됨에 따라 개인정보 활용의 투명성과 책임성을 확보하는 것이 무엇보다 중요해졌습니다. 개인정보보호위원회(PDPC)는 이번 가이드라인 발표를 통해 AI 혁신을 촉진하는 동시에 사용자 개인정보를 보호하고자 노력하고 있습니다. 그러나 AI 데이터 활용의 복잡성을 소비자에게 효과적으로 알리는 데에는 여전히 어려움이 있습니다. 기업은 AI 시스템 학습 사용자의 신뢰와 확신을 유지하면서

