Крупные американские корпорации внедрили системы слежки на основе искусственного интеллекта . Они анализируют переписку сотрудников в популярных бизнес-приложениях, таких как Slack, Teams и Zoom. Эти модели ИИ, как утверждается, анализируют как текстовый, так и графический контент, публикуемый сотрудниками. Они оценивают эмоциональное состояние и выявляют такие модели поведения, как травля, домогательства, дискриминация и несоблюдение правил.
Применение в корпоративной среде
Некоторые компании используют эти инструменты для оценки реакции сотрудников на корпоративную политику. Эти инструменты неdentотдельных лиц. Другие используют их для пометки конкретных сообщений определенных лиц. Компания Aware, ведущий поставщик таких систем слежки на основе ИИ, может похвастаться обширной клиентской базой, в которую входят такие крупные компании, как Chevron, Delta, Starbucks, T-Mobile и Walmart. Компания утверждает, что проанализировала более 20 миллиардов взаимодействий, охватив более трех миллионов сотрудников.
Однако высказывались опасения по поводу потенциального вторжения в частную жизнь и оруэлловского характера этих систем слежки. Критики опасаются, что общение сотрудников будет рассматриваться как «мыслепреступление». Они боятся, что это может подавить дискуссии на рабочем месте. Ютта Уильямс, соучредитель некоммерческой организации Humane Intelligence, занимающейся вопросами подотчетности в сфере ИИ, утверждает, что такая слежка может привести к несправедливому обращению с сотрудниками. Это также может вызвать ухудшение доверия внутри организаций.
Правовые и этические аспекты
Эксперты подчеркивают правовые и этические аспекты использования ИИ для слежки за сотрудниками. Они акцентируют внимание на необходимости соблюдения баланса между правами на неприкосновенность частной жизни и необходимостью мониторинга рискованного поведения. Амба Как, исполнительный директор Института AI Now при Нью-Йоркском университете, обеспокоена использованием ИИ для определения рискованного поведения и предупреждает о потенциально негативном влиянии на коммуникацию . Кроме того, существуют опасения, что даже агрегированные данные могут быть легко деанонимизированы. Это создает риски для неприкосновенности частной жизни отдельных лиц.
Меры регулирования в ответ на наблюдение за использованием ИИ
Федеральная торговая комиссия, Министерство юстиции и Комиссия по обеспечению равных возможностей в сфере занятости выразили обеспокоенность по поводу использования систем слежки на основе искусственного интеллекта на рабочем месте. Эти ведомства рассматривают этот вопрос как вопрос защиты прав работников и неприкосновенности частной жизни. Они подчеркивают необходимость всестороннего регулирования. Это позволит защитить права сотрудников и одновременно эффективно управлять рисками в корпоративной среде.
Использование систем слежки на основе искусственного интеллекта на рабочем месте поднимает сложные этические, правовые вопросы и вопросы конфиденциальности. Эти вопросы требуют тщательного рассмотрения и регулирования. Такие системы могут принести пользу в управлении рисками и соблюдении нормативных требований. Однако они также представляют значительные риски для конфиденциальности сотрудников и свободы выражения мнений. Поскольку организации продолжают внедрять технологии искусственного интеллекта в целях слежки, крайне важно найти баланс. Этот баланс должен обеспечивать безопасную и продуктивную рабочую среду и уважать права сотрудников на неприкосновенность частной жизни и свободу слова.
Наблюдение с использованием ИИ