ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Rite Aid interrompe il riconoscimento facciale tramite intelligenza artificiale in seguito all'accordo con la FTC

DiBrenda KananaBrenda Kanana
Tempo di lettura: 3 minuti.
Rite Aid
  • Rite Aid interrompe l'utilizzo del riconoscimento facciale tramite intelligenza artificiale dopo l'accordo con la FTC a causa delle accuse di profilazione razziale.
  • La tecnologia dell'intelligenza artificiale spesso replica pregiudizi esistenti, prendendo di mira ingiustamente le persone di colore nei contesti commerciali.
  • Gli esperti consigliano cautela nell'impiego della sorveglianza tramite intelligenza artificiale e suggeriscono di effettuare test per eliminare i pregiudizi razziali.

 Rite Aid, la nota catena di farmacie al dettaglio, ha accettato di interrompere l'utilizzo della tecnologia di riconoscimento facciale basata sull'intelligenza artificiale nell'ambito delle sue misure di prevenzione dei furti nei negozi. Questa decisione arriva in risposta a un accordo legale con la Federal Trade Commission (FTC) e in seguito alle accuse di profilazione razziale. Il sistema di intelligenza artificiale, utilizzato dal 2012, avrebbe mostrato una parzialità, prendendo di mira in modo sproporzionato i clienti neri, latini e asiatici rispetto ai loro colleghi bianchi.

Le accuse di profilazione razziale portano ad azioni legali

L'utilizzo da parte di Rite Aid della tecnologia di riconoscimento facciale basata sull'intelligenza artificiale è stato oggetto di analisi a causa della presunta profilazione di alcuni gruppi razziali. Nello specifico, il sistema è stato utilizzato perdenti clienti ritenuti propensi a commettere furti, attivando avvisi di abbinamento per i dipendenti del negozio quando questi individui entravano nei locali. È inquietante che le prove presentate nei documenti legali suggeriscano che le persone di colore siano state più frequentemente sottoposte a sorveglianza ingiustificata, molestie e imbarazzo pubblico.

Il cosiddetto fenomeno dello "shopping while black", una preoccupazione di lunga data, comporta il sospetto ingiustificato, il monitoraggio costante e le ingiuste accuse di furto rivolte ai clienti neri fin dal momento in cui entrano nei negozi. Questo problema si estende a pratiche discriminatorie come il chiudere a chiave prodotti per la cura dei capelli e di bellezza per neri dietro vetrine di vetro, lasciando articoli simili per i clienti bianchi facilmente accessibili sugli scaffali aperti.

L'uso improprio della tecnologia di riconoscimento facciale da parte di Rite Aid evidenzia un inquietante caso di studio di ciò che alcuni esperti definiscono "razzismo al dettaglio", evidenziando il ruolomatic che l'intelligenza artificiale può svolgere nel rafforzare e aggravare le disuguaglianze razziali.

Il pregiudizio nell'intelligenza artificiale

Rashawn Ray, professore di sociologia all'Università del Maryland e ricercatore senior presso la Brookings Institution, sottolinea che le tecnologie di intelligenza artificiale spesso rispecchiano le disuguaglianze esistenti, poiché vengono progettate e sviluppate in ambienti privi di diversità e inclusione. Quando gli stessi stereotipi che permeano gli incontri quotidiani vengono codificati in algoritmi, il risultato è una tecnologia di riconoscimento facciale che perpetua stereotipi razziali, simili ai pregiudizi umani.

I pregiudizi impliciti, radicati in scorciatoie mentali che associano inconsciamente determinati gruppi a particolari caratteristiche o comportamenti, sono un fattore significativo in questo problema. Nel settore della vendita al dettaglio, questi pregiudizi si manifestano spesso con l'associazione errata, da parte dei dipendenti, di acquirenti di colore a tendenze di furto non supportate da dati. Nonostante le statistiche indichino che la maggior parte dei taccheggiatori negli Stati Uniti sia di razza bianca, l'uso improprio della tecnologia di intelligenza artificiale continua a diffondere la falsa narrazione sulla maggioranza dei taccheggiatori.

Sebbene il furto di beni rappresenti un rischio finanziario sostanziale per le aziende, l'affidamento di Rite Aid all'intelligenza artificiale per la sorveglianza ha portato a conseguenze indesiderate. I clienti di colore, erroneamente presi di mira, hanno subito umiliazioni, con conseguenti perdite di reddito per i negozi. Alcune comunità, in particolare quelle prive di alternative di acquisto, non hanno avuto altra scelta chetronesercizi commerciali in cui si sono trovate ad affrontare discriminazioni e abusi.

Il ruolo dell'intelligenza artificiale oltre il commercio al dettaglio

Le implicazioni dell'IA distorta vanno oltre il settore della vendita al dettaglio, con preoccupazioni per il suo impatto sulle attività di polizia e sulla sicurezza pubblica. Casi di alto profilo, come l'arresto ingiusto di una donna nera incinta a Detroit a causa di errori nella tecnologia di riconoscimento facciale, sollevano dubbi sull'affidabilità dei sistemi di sorveglianza basati sull'IA.

I dati del Pew Research Center rivelano che glidentneri mostrano la minore fiducia nella tecnologia di riconoscimento facciale nelle attività di polizia. Quasi la metà degli individui neri intervistati ha espresso preoccupazione per il fatto che gli agenti avrebbero utilizzato impropriamente le tecnologie basate sull'intelligenza artificiale per sorvegliare i quartieri prevalentemente neri e latini più frequentemente rispetto alle areedentcon una diversità razziale.

Richiede cautela e test

All'inizio di quest'anno, cinque senatori statunitensi si sono opposti all'uso della tecnologia di riconoscimento facciale da parte della Transportation Security Administration (TSA) negli aeroporti statunitensi. Hanno citato uno studio che rivelava che le persone di colore e di origine asiatica avevano una probabilità significativamente maggiore di esseredentda tale tecnologia rispetto agli uomini bianchi. Nell'ambito dell'accordo con la FTC, Rite Aid si è impegnata a sospendere l'uso di sistemi di sorveglianza basati sull'intelligenza artificiale per i prossimi cinque anni. Gli esperti suggeriscono che altri rivenditori seguano l'esempio, conducendo test rigorosi e ripetuti per eliminare i pregiudizi in queste tecnologie.

La tua banca si sta usando i tuoi soldi. A te restano solo le briciole. Guarda il nostro video gratuito su come diventare la tua banca.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO