Grandi aziende statunitensi hanno implementato sistemi di sorveglianza basati sull'intelligenza artificiale . Analizzano le comunicazioni dei dipendenti nelle applicazioni aziendali più diffuse, tra cui Slack, Teams e Zoom. Questi modelli di intelligenza artificiale affermano di analizzare sia i contenuti testuali che quelli visivi pubblicati dai dipendenti. Valutano il sentiment e rilevano comportamenti come bullismo, molestie, discriminazione e non conformità.
Utilizzo in ambiente aziendale
Alcune aziende utilizzano questi strumenti per valutare le reazioni dei dipendenti alle politiche aziendali. Gli strumenti nondenti singoli individui. Altre li utilizzano per segnalare post specifici di determinati individui. Aware, un fornitore leader di tali sistemi di sorveglianza basati sull'intelligenza artificiale, vanta una clientela che include grandi aziende come Chevron, Delta, Starbucks, T-Mobile e Walmart. L'azienda afferma di aver analizzato oltre 20 miliardi di interazioni, coinvolgendo più di tre milioni di dipendenti.
Tuttavia, sono state sollevate preoccupazioni circa la potenziale violazione della privacy e la natura orwelliana di questi sistemi di sorveglianza. I critici temono che la comunicazione tra dipendenti venga trattata come un reato di pensiero. Temono che possa indebolire il dibattito sul posto di lavoro. Jutta Williams è co-fondatrice dell'organizzazione no-profit Humane Intelligence, impegnata nella responsabilità dell'intelligenza artificiale. Sostiene che tale sorveglianza potrebbe portare a un trattamento ingiusto dei dipendenti. Potrebbe anche causare un deterioramento della fiducia all'interno delle organizzazioni.
Considerazioni legali ed etiche
Gli esperti evidenziano le considerazioni legali ed etiche che circondano l'intelligenza artificiale per la sorveglianza dei dipendenti. Sottolineano la necessità di bilanciare i diritti alla privacy. Sottolineano inoltre la necessità di monitorare i comportamenti a rischio. Amba Kak è direttrice esecutiva dell'AI Now Institute presso la New York University. È preoccupata per l'utilizzo dell'intelligenza artificiale per individuare comportamenti a rischio. Mette in guardia dai potenziali effetti negativi sulla comunicazione . Inoltre, si teme che anche i dati aggregati possano essere facilmente de-anonimizzati, con conseguenti rischi per la privacy individuale.
Risposta normativa alla sorveglianza dell'IA
La Federal Trade Commission, il Dipartimento di Giustizia e la Equal Employment Opportunity Commission hanno espresso preoccupazione per l'uso di sistemi di sorveglianza basati sull'intelligenza artificiale sul posto di lavoro. Queste agenzie considerano la questione sia una questione di diritti dei lavoratori che di privacy. Sottolineano la necessità di una regolamentazione completa, che tuteli i diritti dei dipendenti e consenta al contempo un'efficace gestione del rischio in ambito aziendale.
L'uso di sistemi di sorveglianza basati sull'intelligenza artificiale sul posto di lavoro solleva complesse questioni etiche, legali e di privacy. Tali questioni richiedono un'attenta valutazione e regolamentazione. Questi sistemi possono offrire vantaggi in termini di gestione del rischio e conformità. Tuttavia, presentano anche rischi significativi per la privacy dei dipendenti e la libertà di espressione. Poiché le organizzazioni continuano ad adottare tecnologie di intelligenza artificiale per scopi di sorveglianza, è fondamentale trovare un equilibrio. Tale equilibrio deve garantire un ambiente di lavoro sicuro e produttivo e rispettare il diritto dei dipendenti alla privacy e alla libertà di parola.
Sorveglianza AI