Your bank is using your money. You’re getting the scraps.WATCH FREE

Tecnologia di riconoscimento facciale e disuguaglianze razziali nelle attività di polizia

In questo post:

  • L'FRT nelle attività di polizia prende di mira ingiustamente le persone di colore a causa di difetti e pregiudizi negli algoritmi.
  • Un uomo innocente è stato erroneamentedentdalla FRT, il che ha portato ad un'aggressione in carcere.
  • Crescono le richieste di riforma dell'FRT dopo che alcunidenthanno rivelato pregiudizi razziali.

La tecnologia di riconoscimento facciale (FRT) è nuovamente al centro dell'attenzione a causa del timore che possa aggravare le disuguaglianze razziali nelle attività di polizia. Una recente ricerca condotta da Scientific American online ha fatto luce sui potenziali pregiudizi insiti negli FRT e sulle loro conseguenze nel mondo reale.

Lo studio ha rivelato che le forze dell'ordine che utilizzano il riconoscimento facciale automatico arrestano in modo sproporzionato i neri, sollevando interrogativi cruciali sull'equità e l'affidabilità di questa tecnologia.

Difetti negli algoritmi FRT

I ricercatori che hanno redatto il rapporto sostengono che diversi fattori contribuiscono all'impatto sproporzionato dell'FRT sulle comunità nere. Una delle principali preoccupazioni è la mancanza di diversità nei set di dati di addestramento degli algoritmi, che spesso non offrono una rappresentazione adeguata dei volti neri. Questa defipuò portare a imprecisionidentdegli individui appartenenti a gruppi minoritari.

Un altro fattore determinante è la convinzione, da parte delle forze dell'ordine, che questi programmi siano infallibili. Questa eccessiva dipendenza dalla tecnologia può indurre gli agenti a fidarsi incondizionatamente dei risultati dei test di affidabilità, anche quando sono imperfetti. 

Inoltre, lo studio suggerisce che i pregiudizi intrinseci degli agenti possono amplificare i problemi all'interno dell'FRT, portando ad arresti ingiusti e conseguenze dannose per individui innocenti.

Un esempio lampante delle conseguenze concrete dell'erratadenttramite FRT è il caso di Harvey Eugene Murphy Jr. Il nonno sessantunenne sta attualmente facendo causa alla società madre di Sunglass Hut dopo che la tecnologia di riconoscimento facciale del negozio lodentfalsamente come un rapinatore. 

La rapina è avvenuta in un negozio Sunglass Hut a Houston, in Texas, dove due individui armati hanno rubato sia cash che merce.

Vedi anche  Quasi 16 milioni di dollari in criptovalute persi a causa degli attacchi informatici ad agosto

La polizia di Houston, basandosi sulla FRT, hadentMurphy come sospettato, nonostante risiedesse in California al momento del crimine. È stato arrestato al suo ritorno in Texas per rinnovare la patente. Durante la sua detenzione, Murphy sostiene di essere stato aggredito sessualmente da tre uomini in un bagno, riportando lesioni che gli hanno cambiato la vita.

Sebbene l'ufficio del Procuratore Distrettuale della Contea di Harris abbia infine stabilito che Murphy non era coinvolto nella rapina, il danno era già stato causato durante la sua detenzione. I suoi avvocati sostengono che questo caso esemplifica i difetti intrinseci del FRT e le sue conseguenze pratiche.

Approfondimenti degli esperti e inviti all'azione

Os Keyes, Ada Lovelace Fellow e dottorando presso l'Università di Washington, sostiene che questi sistemi sono progettati per automatizzare e accelerare i pregiudizi esistenti nella polizia, in particolare nei confronti di individui già emarginati o inseriti nel sistema di giustizia penale. 

Keyes sottolinea che le conseguenze negative dell'FRT sono inevitabili e terrificanti, sottolineando la necessità di una riforma più ampia delle attività di polizia e della regolamentazione dell'FRT.

I ricercatori di Scientific American sottolineano che solitamente sono aziende private come Amazon, Clearview AI e Microsoft a sviluppare algoritmi FRT utilizzati dalle forze dell'ordine. 

Nonostante i progressi nelle tecniche di apprendimento profondo, i test federali hanno dimostrato che la maggior parte degli algoritmi di riconoscimento facciale fatica adentaccuratamente gli individui, soprattutto quelli che non sono uomini bianchi.

Nel 2023, la Federal Trade Commission (FTC) ha preso provvedimenti contro l'uso dell'FRT, proibendo a Rite Aid di utilizzare questa tecnologia. Rite Aid aveva ingiustamente accusato alcuni individui di furto in un negozio sulla base di corrispondenze FRT. In undentallarmante, una bambina di 11 anni è stata fermata e perquisita da un dipendente di Rite Aid a causa di una falsa corrispondenza.

Vedi anche  Le azioni Robinhood HOOD scendono di quasi il 10% mentre l'attività delle criptovalute diminuisce

Allo stesso modo, il Dipartimento di Polizia di Detroit ha dovuto affrontare una causa legale dopo che il suo FRT ha erroneamentedentuna donna incinta, Porcha Woodruff, come sospettata di furto d'auto. Woodruff era incinta di otto mesi all'epoca e fu ingiustamente incarcerata.

La FTC ha riconosciuto che le persone di colore vengono spessodenterroneamente quando si utilizza l'FRT. La sovrarappresentazione di uomini bianchi nei set di dati di addestramento porta ad algoritmi distorti, con conseguente sproporzionata identificazione dei volti neri come criminali. Questo, a sua volta, contribuisce all'ingiusta persecuzione e all'arresto di individui neri innocenti.

Richieste di responsabilità e riforme

Alla luce di queste preoccupazioni, i ricercatori sottolineano la necessità per le aziende che sviluppano prodotti FRT di dare priorità alla diversità del personale e dell'immagine nei loro processi di sviluppo. Tuttavia, sottolineano anche che le forze dell'ordine devono esaminare criticamente i propri metodi per impedire che la tecnologia esasperi le disparità razziali e violi i diritti individuali.

Mentre prosegue il dibattito sulla tecnologia del riconoscimento facciale, diventa sempre più chiaro che sono necessarie riforme e normative complete per affrontare i problemi sistemici legati alla sua implementazione. 

Le conseguenze di algoritmi FRT difettosi vanno ben oltre i problemi tecnici, incidendo sulla vita e sul benessere delle persone, in particolare di quelle appartenenti a comunità emarginate.

Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca .

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan