메타 플랫폼은 인공지능을 활용하여 개인정보 보호 및 사회적 위험을 평가할 계획입니다. 그동안 메타 플랫폼은 신제품 및 기능과 관련된 위험을 검토하기 위해 인간 평가자를 고용해 왔지만, 이번 업데이트를 통해 상황이 바뀔 예정입니다.
내부 논의 및 문서에 따르면, 메타는 모든 위험 평가의 90%를 자동화할 계획입니다. 이는 회사의 알고리즘 업데이트, 보안 기능, 그리고 메타 플랫폼 전반에 걸친 콘텐츠 공유 방식 변경과 관련된 대부분의 사항이 인공지능 기반 시스템에 의해 승인될 것임을 의미합니다. 또한, 이러한 변경 사항은 플랫폼 변경으로 인해 발생할 수 있는 예상치 못한 영향이나 오용 가능성을 검토하는 담당 직원의 검토 단계를 더 이상 거치지 않게 된다는 것을 뜻합니다.
Meta는 AI 기반 리뷰 시스템으로 전환할 계획입니다
메타 내부 소식통에 따르면, 이번 조치는 제품 개발자들에게 앱 업데이트 및 기능 출시를 위한 충분한 시간을 확보해 주기 때문에 긍정적인 결과로 여겨지고 있습니다. 그러나 회사 내부에서는 인공지능이 메타 앱에 대한 복잡한 판단을 내리도록 허용하는 것이 실제 피해로 이어질 수 있다는 우려가 여전히 제기되고 있습니다. 이러한 우려는 전·현직 직원 모두로부터 공통적으로 나타나고 있습니다.
"이러한 과정이 실질적으로 더 많은 제품을 더 빠르게 출시하고, 엄격한 검토와 반대를 덜 받는다는 것을 의미한다면, 이는 더 큰 위험을 초래한다는 뜻입니다."라고 회사 측의 보복이 두려워 익명을 요구한 전 메타 임원은 말했습니다. "제품 변경으로 인한 부정적인 외부 효과는 문제가 발생하기 전에 예방될 가능성이 더 낮아집니다."
최근 발표에서 메타는 사용자 개인정보 보호를 위해 수십억 달러를 투자했다고 밝혔습니다. 또한, 이 회사는 2012년부터 연방거래위원회(FTC)의 감독을 받아왔으며, FTC는 메타가 사용자 개인정보를 처리하는 방식에 대해 합의에 도달했습니다. 따라서 메타의 전·현직 직원들에 따르면, 제품의 개인정보 보호 정책에 대한 검토는 항상 필요했습니다.
회사 측은 성명에서 제품 위험 검토 변경 사항이 의사 결정 과정을 간소화하는 데 도움이 될 것이라고 덧붙이며, 새롭고 복잡한 문제에 대해서는 여전히 전문가의 의견을 수렴할 것이라고 밝혔습니다. 메타는 현재 위험도가 낮은 결정만 자동화하고 있다고 언급했지만, NPR 에 따르면 메타는 AI 안전성, 청소년 위험, 그리고 허위 정보 및 폭력적인 콘텐츠와 같은 문제를 다루는 '무결성' 범주를 포함한 민감한 부분에 대한 검토 자동화를 검토 중인 것으로 나타났습니다.
기존 시스템에서는 제품 및 기능 업데이트가 일반 사용자에게 배포되기 전에 먼저 위험 평가 담당자에게 전달되었습니다. 그러나 새로운 프로세스 작동 방식을 보여주는 슬라이드에 따르면, 제품 팀은 프로젝트 관련 설문지를 작성한 후 즉시 결정 사항을 받아볼 수 있습니다. AI 기반 결정 시스템은 여러 위험 영역과 이를 해결하기 위한 요구 사항을dent. 제품 팀은 이러한 프로젝트를 출시하기 전에 요구 사항이 충족되었는지 여부도 확인합니다.
새로운 시스템에서 강조하는 점은 메타 제품을 개발하는 엔지니어들이 위험에 대해 스스로 판단해야 한다는 것입니다. 슬라이드에 따르면, 새로운 위험이 발생하거나 제품 팀에 추가적인 피드백이 필요한 경우, 프로젝트는 사람이 직접 검토하는 수동 검토를 거치게 됩니다.
하지만 2022년까지 메타의 혁신 담당 이사를 지낸 즈비카 크리거는 제품 관리자와 엔지니어가 개인정보 보호 전문가가 아니라고 지적했습니다. 그는 "대부분의 제품 관리자와 엔지니어는 개인정보 보호 전문가가 아니며, 그들의 업무 초점도 아닙니다. 개인정보 보호는 그들의 주요 평가 기준도 아니고, 우선순위를 두도록 장려되는 부분도 아닙니다."라고 말했습니다. 또한 그는 이러한 자체 평가 중 일부가 중요한 위험 요소를 간과하는 형식적인 절차로 전락했다고 덧붙였습니다.

