La technologie de reconnaissance faciale (TRF) fait de nouveau l'objet d'un examen minutieux, car on craint qu'elle n'exacerbe les inégalités raciales dans les pratiques policières. Une étude récente publiée en ligne par Scientific American a mis en lumière les biais potentiels inhérents aux de TRF et leurs conséquences concrètes.
L'étude a révélé que les forces de l'ordre utilisant la reconnaissance faciale automatisée arrêtent de manière disproportionnée les personnes noires, ce qui soulève des questions cruciales quant à l'équité et à la fiabilité de cette technologie.
Failles dans les algorithmes FRT
Les chercheurs à l'origine du rapport affirment que plusieurs facteurs contribuent à l'impact disproportionné de la reconnaissance faciale sur les communautés noires. L'une des principales préoccupations est le manque de diversité dans les ensembles de données d'entraînement des algorithmes, qui présentent souvent une représentation insuffisante des visages noirs. Cette defipeut entraîner des erreursdentdes personnes issues de groupes minoritaires.
Un autre facteur contribuant à ce problème est la conviction, au sein des forces de l'ordre, que ces programmes sont infaillibles. Cette confiance excessive en la technologie peut amener les agents à accorder une confiance aveugle aux résultats des tests d'aptitude à la reconnaissance faciale, même lorsqu'ils sont erronés.
De plus, l'étude suggère que les préjugés inhérents aux agents peuvent amplifier les problèmes au sein des équipes d'intervention rapide, entraînant des arrestations injustifiées et des conséquences néfastes pour des personnes innocentes.
Un exemple frappant des conséquences concrètes d'unedenterronée par la technologie de reconnaissance faciale est le cas d'Harvey Eugene Murphy Jr. Ce grand-père de 61 ans poursuit actuellement la société mère de Sunglass Hut après que la technologie de reconnaissance faciale du magasin l'aitdentà tort comme un voleur.
Le vol a eu lieu dans un magasin Sunglass Hut à Houston, au Texas, où deux individus armés ont dérobé cash et de la marchandise.
La police de Houston, s'appuyant sur les données de la FRT, adentMurphy comme suspect, bien qu'il résidât en Californie au moment des faits. Il a été arrêté à son retour au Texas pour renouveler son permis de conduire. En prison, Murphy affirme avoir été agressé sexuellement par trois hommes dans des toilettes, ce qui lui a causé des blessures invalidantes.
Bien que le bureau du procureur du comté de Harris ait finalement conclu à l'innocence de Murphy dans le vol, le mal était déjà fait pendant sa détention. Ses avocats soutiennent que cette affaire illustre les failles inhérentes et les conséquences néfastes de la méthode FRT dans la pratique.
Analyses d'experts et appels à l'action
Os Keyes, boursière Ada Lovelace et doctorante à l'Université de Washington, affirme que ces systèmes sont conçus pour automatiser et accélérer les préjugés policiers existants, en particulier à l'encontre des personnes déjà marginalisées ou impliquées dans le système de justice pénale.
Keyes souligne que les conséquences négatives des interventions policières sont à la fois inévitables et terrifiantes, insistant sur la nécessité d'une réforme plus large des pratiques policières et de la réglementation des interventions policières.
Les chercheurs de Scientific American soulignent que ce sont généralement des entreprises privées comme Amazon, Clearview AI et Microsoft qui développent les algorithmes de reconnaissance faciale utilisés par les forces de l'ordre.
Malgré les progrès réalisés dans les techniques d'apprentissage profond, les tests fédéraux ont montré que la plupart des algorithmes de reconnaissance faciale peinent àdentavec précision les individus, en particulier ceux qui ne sont pas des hommes blancs.
En 2023, la Federal Trade Commission (FTC) a pris des mesures contre l'utilisation de la reconnaissance faciale en interdisant à Rite Aid d'y recourir. Rite Aid avait accusé à tort des personnes de vol à l'étalage sur la base de correspondances avec la reconnaissance faciale. Undentalarmant s'est produit : une fillette de 11 ans a été interpellée et fouillée par un employé de Rite Aid suite à une fausse identification.
De même, le département de police de Détroit a fait l'objet d'une poursuite judiciaire après que son unité d'intervention rapide (FRT) a identifiédenttort une femme enceinte, Porcha Woodruff, comme suspecte de vol de voiture. Woodruff était enceinte de huit mois à l'époque et a été emprisonnée à tort.
La FTC a reconnu que les personnes de couleur sont souvent maldentlors de l'utilisation de la reconnaissance faciale. La surreprésentation des hommes blancs dans les ensembles de données d'entraînement biaise les algorithmes, ce qui entraîne le marquage disproportionné des personnes noires comme criminelles. Ceci contribue, à son tour, au ciblage et à l'arrestation injustes de personnes noires innocentes.
Appels à la responsabilisation et à la réforme
Face à ces préoccupations, les chercheurs insistent sur la nécessité pour les entreprises développant des produits de reconnaissance faciale de privilégier la diversité de leur personnel et de leur image dans leurs processus de développement. Ils soulignent également que les forces de l'ordre doivent examiner attentivement leurs méthodes afin d'éviter que cette technologie n'exacerbe les inégalités raciales et ne porte atteinte aux droits individuels.
Alors que le débat autour de la technologie de reconnaissance faciale se poursuit, il devient de plus en plus évident qu'une réforme et une réglementation globales sont nécessaires pour résoudre les problèmes systémiques liés à sa mise en œuvre.
Les conséquences des algorithmes FRT défectueux vont bien au-delà des problèmes techniques, affectant la vie et le bien-être des individus, en particulier ceux issus de communautés marginalisées.

