De grandes entreprises américaines ont mis en place des systèmes de surveillance basés sur l'intelligence artificielle . Ces systèmes analysent les communications des employés au sein d'applications professionnelles courantes telles que Slack, Teams et Zoom. Ces modèles d'IA prétendent analyser le contenu textuel et visuel publié par les employés, évaluer le ressenti et détecter des comportements comme le harcèlement, la discrimination et le non-respect des règles.
Utilisation en milieu professionnel
Certaines entreprises utilisent ces outils pour évaluer les réactions de leurs employés aux politiques de l'entreprise. Ces outils ne permettent pas d'dentles individus. D'autres les utilisent pour signaler des publications spécifiques de certains employés. Aware, un fournisseur de premier plan de systèmes de surveillance par IA de ce type, compte parmi ses clients des entreprises majeures telles que Chevron, Delta, Starbucks, T-Mobile et Walmart. L'entreprise affirme avoir analysé plus de 20 milliards d'interactions, portant sur plus de trois millions d'employés.
Cependant, des inquiétudes subsistent quant au risque d'atteinte à la vie privée et au caractère orwellien de ces systèmes de surveillance. Les critiques s'inquiètent de la criminalisation des communications entre employés, craignant que cela n'entrave les échanges au travail. Jutta Williams, cofondatrice de l'association Humane Intelligence, qui œuvre pour la responsabilité en matière d'IA, soutient qu'une telle surveillance pourrait conduire à des traitements injustes des employés et à une dégradation de la confiance au sein des organisations.
Considérations juridiques et éthiques
Des experts soulignent les enjeux juridiques et éthiques liés à l'utilisation de l'IA pour la surveillance des employés. Ils insistent sur la nécessité de trouver un équilibre entre le droit à la vie privée et la surveillance des comportements à risque. Amba Kak, directrice générale de l'AI Now Institute de l'Université de New York, s'inquiète de l'utilisation de l'IA pour identifier ces comportements et met en garde contre les risques d'effets dissuasifs sur la communication . De plus, on craint que même les données agrégées puissent être facilement désanonymisées, ce qui représente une menace pour la vie privée.
Réponse réglementaire à la surveillance de l'IA
La Commission fédérale du commerce (FTC), le ministère de la Justice et la Commission pour l'égalité des chances en matière d'emploi (EEOC) ont tous exprimé leurs inquiétudes quant à l'utilisation des systèmes de surveillance par intelligence artificielle (IA) sur le lieu de travail. Ces organismes considèrent cette question comme relevant à la fois des droits des travailleurs et du droit à la vie privée. Ils insistent sur la nécessité d'une réglementation complète, qui protège les droits des employés tout en permettant une gestion efficace des risques en entreprise.
L'utilisation de systèmes de surveillance par intelligence artificielle (IA) sur le lieu de travail soulève des questions complexes d'éthique, de droit et de respect de la vie privée. Ces questions exigent un examen attentif et une réglementation adéquate. Si ces systèmes peuvent présenter des avantages en matière de gestion des risques et de conformité, ils font également peser des risques importants sur la vie privée des employés et leur liberté d'expression. Alors que les organisations continuent d'adopter les technologies d'IA à des fins de surveillance, il est crucial de trouver un juste équilibre. Cet équilibre doit garantir un environnement de travail sûr et productif, tout en respectant les droits des employés à la vie privée et à la liberté d'expression.
Surveillance par IA