미국의 대기업들이 인공지능(AI) 감시 시스템을 . 이 시스템은 슬랙, 팀즈, 줌과 같은 인기 있는 업무용 애플리케이션에서 직원들의 소통 내용을 분석합니다. 이러한 AI 모델은 직원들이 게시한 텍스트와 이미지 콘텐츠를 모두 분석하여 감정을 파악하고 괴롭힘, 희롱, 차별, 규정 위반과 같은 행위를 감지한다고 주장합니다.
기업 환경에서의 사용
일부 기업은 이러한 도구를 사용하여 회사 정책에 대한 직원들의 반응을 측정합니다. 이 도구는 개인을dent하지는 않습니다. 다른 기업들은 특정 직원의 특정 게시물을 표시하는 데 사용합니다. 이러한 AI 감시 시스템의 주요 공급업체인 Aware는 Chevron, Delta, Starbucks, T-Mobile, Walmart와 같은 대기업을 고객으로 두고 있다고 자랑합니다. 이 회사는 300만 명이 넘는 직원의 200억 건 이상의 상호 작용을 분석했다고 주장합니다.
하지만 사생활 침해 가능성과 이러한 감시 시스템의 오웰적인 성격에 대한 우려가 제기되고 있습니다. 비평가들은 직원들의 소통을 사상범죄로 취급하는 것에 대해 걱정하며, 이는 직장 내 자유로운 소통을 위축시킬 수 있다고 우려합니다. 인공지능 책임성 비영리 단체인 휴메인 인텔리전스의 공동 설립자인 유타 윌리엄스는 이러한 감시가 직원들에 대한 부당한 대우로 이어질 수 있으며, 조직 내 신뢰를 악화시킬 수 있다고 주장합니다.
법적 및 윤리적 고려 사항
전문가들은 직원 감시용 AI를 둘러싼 법적, 윤리적 고려 사항을 강조합니다. 그들은 사생활 보호 권리와 위험 행동 감시 사이의 균형을 맞춰야 한다고 역설합니다. 뉴욕대학교 AI Now 연구소의 소장인 암바 칵은 AI를 이용해 위험 행동을 판단하는 것에 대해 우려를 표하며, 직장 내 소통 . 또한, 집계된 데이터조차도 쉽게 익명화 해제될 수 있다는 우려가 제기되며, 이는 개인의 사생활 침해로 이어질 수 있습니다.
인공지능 감시에 대한 규제 대응
연방거래위원회, 법무부, 그리고 고용평등위원회 모두 인공지능 감시 시스템의 직장 내 사용에 대해 우려를 표명했습니다. 이들 기관은 이 문제를 근로자의 권리와 사생활 보호 문제로 보고 있으며, 포괄적인 규제의 필요성을 강조합니다. 이러한 규제는 근로자의 권리를 보호하는 동시에 기업 환경에서 효과적인 위험 관리를 가능하게 해야 합니다.
직장에서 인공지능(AI) 감시 시스템을 사용하는 것은 복잡한 윤리적, 법적, 개인정보 보호 문제를 야기합니다. 이러한 문제들은 신중한 검토와 규제가 필요합니다. AI 시스템은 위험 관리 및 규정 준수 측면에서 이점을 제공할 수 있지만, 동시에 직원의 개인정보 보호와 표현의 자유를 심각하게 침해할 위험도 내포하고 있습니다. 기업들이 감시 목적으로 AI 기술을 지속적으로 도입함에 따라, 안전하고 생산적인 업무 환경을 유지하는 동시에 직원의 개인정보 보호 및 표현의 자유를 존중하는 균형을 찾는 것이 매우 중요합니다.
AI 감시