Grandes corporações americanas implementaram sistemas de vigilância por IA . Esses sistemas analisam as comunicações dos funcionários em aplicativos corporativos populares, como Slack, Teams e Zoom. Os modelos de IA afirmam analisar tanto o conteúdo de texto quanto o de imagem publicados pelos funcionários, avaliando o sentimento e detectando comportamentos como bullying, assédio, discriminação e descumprimento de normas.
Utilização em ambiente corporativo
Algumas empresas usam essas ferramentas para avaliar as reações dos funcionários às políticas corporativas. As ferramentas nãodentindivíduos. Outras as utilizam para sinalizar publicações específicas de determinados funcionários. A Aware, uma das principais fornecedoras de sistemas de vigilância por IA, possui uma vasta clientela, que inclui grandes empresas como Chevron, Delta, Starbucks, T-Mobile e Walmart. A empresa afirma ter analisado mais de 20 bilhões de interações, envolvendo mais de três milhões de funcionários.
No entanto, surgiram preocupações sobre a potencial invasão de privacidade e a natureza orwelliana desses sistemas de vigilância. Os críticos temem que a comunicação dos funcionários seja tratada como crime de pensamento, podendo inibir o diálogo no ambiente de trabalho. Jutta Williams é cofundadora da Humane Intelligence, uma organização sem fins lucrativos que luta pela responsabilização em inteligência artificial. Ela argumenta que essa vigilância pode levar ao tratamento injusto dos funcionários e causar uma deterioração da confiança dentro das organizações.
Considerações legais e éticas
Especialistas destacam as considerações legais e éticas em torno da IA para vigilância de funcionários. Eles enfatizam a necessidade de equilibrar os direitos à privacidade e também a importância de monitorar comportamentos de risco. Amba Kak, diretora executiva do AI Now Institute da Universidade de Nova York, está preocupada com o uso da IA para determinar comportamentos de risco e alerta para os potenciais efeitos inibidores na comunicação . Além disso, há receios de que até mesmo dados agregados possam ser facilmente desanonimizados, o que representa riscos à privacidade individual.
Resposta regulatória à vigilância por IA
A Comissão Federal de Comércio (FTC), o Departamento de Justiça e a Comissão de Igualdade de Oportunidades de Emprego (EEOC) expressaram preocupação com o uso de sistemas de vigilância por inteligência artificial no ambiente de trabalho. Essas agências consideram a questão como um problema tanto de direitos trabalhistas quanto de privacidade, e enfatizam a necessidade de uma regulamentação abrangente que proteja os direitos dos funcionários e, ao mesmo tempo, permita uma gestão de riscos eficaz em ambientes corporativos.
A utilização de sistemas de vigilância por IA no ambiente de trabalho levanta questões complexas de ética, legalidade e privacidade. Essas questões exigem consideração e regulamentação cuidadosas. Esses sistemas podem oferecer benefícios em termos de gestão de riscos e conformidade. No entanto, também representam riscos significativos para a privacidade e a liberdade de expressão dos funcionários. À medida que as organizações continuam a adotar tecnologias de IA para fins de vigilância, é crucial encontrar um equilíbrio. Esse equilíbrio deve manter um ambiente de trabalho seguro e produtivo, respeitando os direitos dos funcionários à privacidade e à liberdade de expressão.
Vigilância por IA