A tecnologia de reconhecimento facial (TRF) voltou a ser alvo de escrutínio devido a preocupações de que possa exacerbar as desigualdades raciais no policiamento. Uma pesquisa recente realizada pela Scientific American online lançou luz sobre os potenciais vieses inerentes aos de TRF e suas consequências no mundo real.
O estudo revelou que as agências de aplicação da lei que utilizam reconhecimento facial automatizado prendem indivíduos negros de forma desproporcional, levantando questões críticas sobre a imparcialidade e a confiabilidade da tecnologia.
Falhas nos algoritmos FRT
Os pesquisadores responsáveis pelo relatório argumentam que diversos fatores contribuem para o impacto desproporcional do reconhecimento facial em comunidades negras. Uma das principais preocupações é a falta de diversidade nos conjuntos de dados de treinamento dos algoritmos, que frequentemente carecem de representação adequada de rostos negros. Essa defipode levar a imprecisões nadentde indivíduos de grupos minoritários.
Outro fator que contribui para isso é a crença, por parte das forças policiais, de que esses programas são infalíveis. Essa dependência excessiva da tecnologia pode levar os agentes a confiarem incondicionalmente nos resultados dos testes de reconhecimento facial, mesmo quando estes apresentam falhas.
Além disso, o estudo sugere que os preconceitos inerentes aos policiais podem agravar os problemas dentro da Equipe de Resposta Rápida (FRT, na sigla em inglês), levando a prisões injustas e consequências prejudiciais para indivíduos inocentes.
Um exemplo marcante das consequências reais dadenterrônea por meio de reconhecimento facial é o caso de Harvey Eugene Murphy Jr. O avô de 61 anos está processando a empresa controladora da Sunglass Hut depois que a tecnologia de reconhecimento facial da loja odenterroneamente como um ladrão.
O assalto ocorreu em uma loja da Sunglass Hut em Houston, Texas, onde dois indivíduos armados roubaram cash e mercadorias.
A polícia de Houston, utilizando o sistema de reconhecimento facial (FRT),dentMurphy como suspeito, embora ele residisse na Califórnia na época do crime. Ele foi preso ao retornar ao Texas para renovar sua carteira de motorista. Enquanto estava na prisão, Murphy alega ter sido agredido sexualmente por três homens em um banheiro, sofrendo ferimentos que mudaram sua vida.
Embora o Ministério Público do Condado de Harris tenha determinado posteriormente que Murphy não estava envolvido no roubo, o dano já havia sido causado durante o período em que ele esteve sob custódia. Seus advogados argumentam que este caso exemplifica as falhas inerentes e as consequências na prática do FRT (Tribunal de Resposta Rápida).
Análises de especialistas e apelos à ação
Os Keyes, bolsista da Fundação Ada Lovelace e candidata a doutorado na Universidade de Washington, afirma que esses sistemas são projetados para automatizar e acelerar os preconceitos policiais existentes, particularmente contra indivíduos que já são marginalizados ou estão no sistema de justiça criminal.
Keyes enfatiza que as consequências negativas do uso da força física são inevitáveis e terríveis, destacando a necessidade de uma reforma mais ampla no policiamento e na regulamentação dessa prática.
Os pesquisadores da Scientific American destacam que empresas privadas como Amazon, Clearview AI e Microsoft normalmente desenvolvem algoritmos de reconhecimento facial utilizados por agências de aplicação da lei.
Apesar dos avanços nas técnicas de aprendizado profundo, testes federais mostraram que a maioria dos algoritmos de reconhecimento facial tem dificuldades paradentcom precisão indivíduos, especialmente aqueles que não são homens brancos.
Em 2023, a Comissão Federal de Comércio (FTC) tomou medidas contra o uso da tecnologia de reconhecimento facial (FRT, na sigla em inglês), proibindo a Rite Aid de utilizá-la. A Rite Aid havia acusado injustamente indivíduos de furto em lojas com base em correspondências de FRT. Em umdentalarmante, uma menina de 11 anos foi parada e revistada por um funcionário da Rite Aid devido a uma correspondência falsa.
Da mesma forma, o Departamento de Polícia de Detroit enfrentou um processo judicial depois que sua equipe de Resposta Rápida (FRT)dentuma mulher grávida, Porcha Woodruff, como suspeita de roubo de carro. Woodruff estava grávida de oito meses na época e foi presa injustamente.
A FTC reconheceu que pessoas de cor são frequentementedenterroneamente quando se utiliza o reconhecimento facial. A sobrerrepresentação de homens brancos nos conjuntos de dados de treinamento leva a algoritmos enviesados, resultando na marcação desproporcional de pessoas negras como criminosas. Isso, por sua vez, contribui para a perseguição e prisão injustas de indivíduos negros inocentes.
Apelos por responsabilização e reforma
À luz dessas preocupações, os pesquisadores enfatizam a necessidade de as empresas que desenvolvem produtos de reconhecimento facial priorizarem a diversidade de pessoal e de imagem em seus processos de desenvolvimento. No entanto, eles também ressaltam que as agências de aplicação da lei devem examinar criticamente seus métodos para evitar que a tecnologia exacerbe as disparidades raciais e viole os direitos individuais.
À medida que o debate em torno da tecnologia de reconhecimento facial continua, torna-se cada vez mais claro que uma reforma e regulamentação abrangentes são necessárias para abordar as questões sistêmicas de sua implementação.
As consequências de algoritmos de reconhecimento facial falhos vão muito além de falhas técnicas, afetando a vida e o bem-estar de indivíduos, particularmente aqueles de comunidades marginalizadas.

