面部识别技术(FRT)再次受到密切关注,因为人们担心它可能加剧警务工作中的种族不平等现象。近期,《科学美国人》在线版的一项研究揭示了FRT算法中潜在的偏见及其在现实世界中的影响。
该研究揭示,使用自动面部识别技术的执法机构不成比例地逮捕黑人,这引发了人们对该技术的公平性和可靠性的严重质疑。.
FRT算法的缺陷
该报告的研究人员认为,多种因素导致人脸识别技术对黑人社区造成不成比例的影响。其中一个主要问题是算法训练数据集缺乏多样性,其中往往缺乏足够的黑人面孔样本。这种 defi会导致对少数族裔群体成员的dent出现误差。.
另一个促成因素是执法部门普遍认为这些程序绝对可靠。这种对技术的过度依赖会导致警员们对FRT(面部识别技术)的结果深信不疑,即使这些结果存在缺陷。.
此外,该研究表明,警官固有的偏见会放大 FRT 中的问题,导致错误逮捕,并对无辜者造成不利后果。.
哈维·尤金·墨菲二世的案例就是一个引人注目的例子,它说明了dent技术在现实世界中造成的错误后果。这位 61 岁的祖父目前正在起诉 Sunglass Hut 的母公司,因为该商店的人脸识别技术错误地dent他识别为劫匪。.
这起抢劫案发生在德克萨斯州休斯顿的一家太阳镜专卖店,两名持枪歹徒抢走了 cash 和商品。.
休斯顿警方依靠现场反应小组(FRT)的识别,dent墨菲列为嫌疑人,尽管案发时他居住在加利福尼亚州。他返回德克萨斯州更新驾照时被捕。墨菲声称,在狱中,他遭到三名男子在浴室的性侵犯,导致终身残疾。.
尽管哈里斯县地方检察官办公室最终认定墨菲并未参与抢劫,但他在羁押期间造成的损害已经无法挽回。他的律师辩称,此案凸显了FRT(家庭暴力应对机制)固有的缺陷及其在实践中的后果。.
专家见解和行动呼吁
华盛顿大学艾达·洛夫莱斯研究员兼博士候选人奥斯·基斯断言,这些系统旨在自动化和加速现有的警察偏见,特别是针对那些已经处于边缘化地位或身处刑事司法系统的人。.
基斯强调,FRT 的负面后果既不可避免又令人恐惧,因此需要对警务和 FRT 监管进行更广泛的改革。.
《科学美国人》的研究人员强调,像亚马逊、Clearview AI 和微软这样的私营公司通常开发执法机构使用的 FRT 算法。.
尽管深度学习技术取得了进步,但联邦测试表明,大多数面部识别算法难以准确dent个人,尤其是非白人男性。.
2023年,美国联邦贸易委员会(FTC)对人脸识别技术(FRT)的使用采取了行动,禁止来德爱(Rite Aid)使用该技术。来德爱曾错误地根据FRT的匹配结果指控他人盗窃。其中一起令人震惊的dent中,一名11岁女孩因错误的匹配结果而被来德爱的一名员工拦下并搜查。.
同样,底特律警察局也曾因其现场反应小组(FRT)将一名怀孕女子波尔查·伍德拉夫(Porcha Woodruff)dent为劫车嫌疑人而面临诉讼。伍德拉夫当时已怀孕八个月,却被错误地监禁。.
美国联邦贸易委员会承认,在使用人脸识别技术时,有色人种经常被错误dent。训练数据集中白人男性比例过高导致算法偏差,造成黑人面孔被不成比例地标记为罪犯。这反过来又加剧了无辜黑人被不公正地针对和逮捕的情况。.
呼吁追究责任和改革
鉴于这些担忧,研究人员强调,开发人脸识别技术产品的公司需要在开发过程中优先考虑员工和图像的多样性。然而,他们也强调,执法机构必须认真审视自身方法,以防止技术加剧种族差异并侵犯个人权利。.
随着围绕面部识别技术的争论持续进行,越来越明显的是,需要进行全面的改革和监管,以解决其实施过程中存在的系统性问题。.
有缺陷的 FRT 算法的后果远远超出技术故障,影响到个人的生活和福祉,特别是来自边缘化社区的人们的生活和福祉。.

