Your bank is using your money. You’re getting the scraps.WATCH FREE

Technologie de reconnaissance faciale et inégalités raciales dans les forces de l'ordre

Dans cet article :

  • L'analyse fonctionnelle de la réponse aux questions (FRT) dans le cadre des opérations policières cible injustement les personnes noires en raison de défauts algorithmiques et de biais.
  • Un homme innocent a été injustementdentde délit par la police, ce qui a conduit à une agression en prison.
  • Les appels à une réforme de la FRT se multiplient après que desdentont révélé des préjugés raciaux.

La technologie de reconnaissance faciale (TRF) fait de nouveau l'objet d'un examen minutieux, car on craint qu'elle n'exacerbe les inégalités raciales dans les pratiques policières. Une étude récente publiée en ligne par Scientific American a mis en lumière les biais potentiels inhérents aux de TRF et leurs conséquences concrètes.

L'étude a révélé que les forces de l'ordre utilisant la reconnaissance faciale automatisée arrêtent de manière disproportionnée les personnes noires, ce qui soulève des questions cruciales quant à l'équité et à la fiabilité de cette technologie.

Failles dans les algorithmes FRT

Les chercheurs à l'origine du rapport affirment que plusieurs facteurs contribuent à l'impact disproportionné de la reconnaissance faciale sur les communautés noires. L'une des principales préoccupations est le manque de diversité dans les ensembles de données d'entraînement des algorithmes, qui présentent souvent une représentation insuffisante des visages noirs. Cette defipeut entraîner des erreursdentdes personnes issues de groupes minoritaires.

Un autre facteur contribuant à ce problème est la conviction, au sein des forces de l'ordre, que ces programmes sont infaillibles. Cette confiance excessive en la technologie peut amener les agents à accorder une confiance aveugle aux résultats des tests d'aptitude à la reconnaissance faciale, même lorsqu'ils sont erronés. 

De plus, l'étude suggère que les préjugés inhérents aux agents peuvent amplifier les problèmes au sein des équipes d'intervention rapide, entraînant des arrestations injustifiées et des conséquences néfastes pour des personnes innocentes.

Un exemple frappant des conséquences concrètes d'unedenterronée par la technologie de reconnaissance faciale est le cas d'Harvey Eugene Murphy Jr. Ce grand-père de 61 ans poursuit actuellement la société mère de Sunglass Hut après que la technologie de reconnaissance faciale du magasin l'aitdentà tort comme un voleur. 

Le vol a eu lieu dans un magasin Sunglass Hut à Houston, au Texas, où deux individus armés ont dérobé cash et de la marchandise.

Voir aussi :  Près de 16 millions de dollars en cryptomonnaies perdus suite à des piratages en août

La police de Houston, s'appuyant sur les données de la FRT, adentMurphy comme suspect, bien qu'il résidât en Californie au moment des faits. Il a été arrêté à son retour au Texas pour renouveler son permis de conduire. En prison, Murphy affirme avoir été agressé sexuellement par trois hommes dans des toilettes, ce qui lui a causé des blessures invalidantes.

Bien que le bureau du procureur du comté de Harris ait finalement conclu à l'innocence de Murphy dans le vol, le mal était déjà fait pendant sa détention. Ses avocats soutiennent que cette affaire illustre les failles inhérentes et les conséquences néfastes de la méthode FRT dans la pratique.

Analyses d'experts et appels à l'action

Os Keyes, boursière Ada Lovelace et doctorante à l'Université de Washington, affirme que ces systèmes sont conçus pour automatiser et accélérer les préjugés policiers existants, en particulier à l'encontre des personnes déjà marginalisées ou impliquées dans le système de justice pénale. 

Keyes souligne que les conséquences négatives des interventions policières sont à la fois inévitables et terrifiantes, insistant sur la nécessité d'une réforme plus large des pratiques policières et de la réglementation des interventions policières.

Les chercheurs de Scientific American soulignent que ce sont généralement des entreprises privées comme Amazon, Clearview AI et Microsoft qui développent les algorithmes de reconnaissance faciale utilisés par les forces de l'ordre. 

Malgré les progrès réalisés dans les techniques d'apprentissage profond, les tests fédéraux ont montré que la plupart des algorithmes de reconnaissance faciale peinent àdentavec précision les individus, en particulier ceux qui ne sont pas des hommes blancs.

En 2023, la Federal Trade Commission (FTC) a pris des mesures contre l'utilisation de la reconnaissance faciale en interdisant à Rite Aid d'y recourir. Rite Aid avait accusé à tort des personnes de vol à l'étalage sur la base de correspondances avec la reconnaissance faciale. Undentalarmant s'est produit : une fillette de 11 ans a été interpellée et fouillée par un employé de Rite Aid suite à une fausse identification.

Voir aussi :  L’action Robinhood (HOOD) chute de près de 10 % en raison du recul de l’activité crypto

De même, le département de police de Détroit a fait l'objet d'une poursuite judiciaire après que son unité d'intervention rapide (FRT) a identifiédenttort une femme enceinte, Porcha Woodruff, comme suspecte de vol de voiture. Woodruff était enceinte de huit mois à l'époque et a été emprisonnée à tort.

La FTC a reconnu que les personnes de couleur sont souvent maldentlors de l'utilisation de la reconnaissance faciale. La surreprésentation des hommes blancs dans les ensembles de données d'entraînement biaise les algorithmes, ce qui entraîne le marquage disproportionné des personnes noires comme criminelles. Ceci contribue, à son tour, au ciblage et à l'arrestation injustes de personnes noires innocentes.

Appels à la responsabilisation et à la réforme

Face à ces préoccupations, les chercheurs insistent sur la nécessité pour les entreprises développant des produits de reconnaissance faciale de privilégier la diversité de leur personnel et de leur image dans leurs processus de développement. Ils soulignent également que les forces de l'ordre doivent examiner attentivement leurs méthodes afin d'éviter que cette technologie n'exacerbe les inégalités raciales et ne porte atteinte aux droits individuels.

Alors que le débat autour de la technologie de reconnaissance faciale se poursuit, il devient de plus en plus évident qu'une réforme et une réglementation globales sont nécessaires pour résoudre les problèmes systémiques liés à sa mise en œuvre. 

Les conséquences des algorithmes FRT défectueux vont bien au-delà des problèmes techniques, affectant la vie et le bien-être des individus, en particulier ceux issus de communautés marginalisées.

Vous laissez encore la banque garder le meilleur ? Regardez notre vidéo gratuite sur comment devenir votre propre banque .

Partager le lien :

Avertissement : Les informations fournies ne constituent pas un conseil en investissement. Cryptopolitan.com Cryptopolitan toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous vous recommandons vivement d’effectuer vos tron dent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.

Articles les plus lus

Chargement des articles les plus lus...

Restez informé(e) de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte mail

Choix de la rédaction

Chargement des articles sélectionnés par la rédaction...

- La newsletter crypto qui vous donne une longueur d'avance -

Les marchés évoluent rapidement.

Nous avançons plus vite.

Abonnez-vous à Cryptopolitan Daily et recevez directement dans votre boîte mail des informations crypto pertinentes, pointues et actualisées.

Inscrivez-vous maintenant et
ne manquez plus aucun mouvement.

Entrez. Renseignez-vous.
Prenez de l'avance.

Abonnez-vous à CryptoPolitan