康奈尔大学的一项预印本研究揭示了大型语言模型(LLM)中令人担忧的语言偏见问题。这些深度学习算法,包括OpenAI的ChatGPT和GPT-4、Meta的LLaMA2以及法国的Mistral 7B,被发现会在回答中表现出隐性种族主义倾向。
人工智能中的语言偏见问题
这项由艾伦人工智能研究所的研究员瓦伦丁·霍夫曼领导的研究揭示了这种偏见在各个领域(包括执法和招聘实践)可能造成的潜在影响。.
研究人员使用一种称为匹配伪装探测的方法,用非裔美国英语和标准美国英语向语言学习模型 (LLM) 发出提示,旨在辨别算法响应中的任何偏见。.
令人震惊的是,这项研究揭示,某些语言学习模型(LLM),尤其是GPT-4,在听到非裔美国人英语提示语时,更倾向于推荐严厉的刑罚,包括死刑。值得注意的是,这些推荐是在没有披露说话者种族的情况下做出的。.
尽管并不了解非裔美国英语使用者的种族身份,但与讲标准英语的人相比,英语学习者往往倾向于将讲非裔美国英语的人与社会dent较低的职业联系起来。这项研究强调,虽然公开的种族主义在英语学习者群体中可能有所减少,但隐性偏见依然存在,并可能产生深远的影响。.
对司法和就业的影响
这些发现意义深远,尤其是在涉及法律逻辑模型的人工智能系统应用领域。例如,在法律诉讼中,带有偏见的建议可能导致不公正的判决,对弱势群体造成不成比例的影响。.
同样,在就业环境中,基于语言对候选人进行有偏见的评估可能会加剧招聘实践中现有的不平等现象。.
霍夫曼强调了传统方法在教授语言学习者新模式方面的不足,指出仅靠人为反馈难以消除隐性种族偏见。此外,该研究表明,语言学习者的庞大规模并不一定能减轻这种偏见;相反,这可能使他们能够在表面上掩盖偏见,同时在更深层次上维持偏见。.
解决人工智能开发中的语言偏见问题
随着科技的不断进步,科技公司必须更有效地解决人工智能偏见问题。仅仅意识到偏见的存在是不够的;必须采取积极主动的措施来减轻其影响。.
这包括重新评估用于训练和微调 LLM 的方法,以及实施用于检测和纠正 AI 系统中偏差的稳健机制。.
这项研究的发现强调了在人工智能模型的开发和部署过程中,迫切需要加强审查和问责。如果不能解决语言学习模型(LLM)中的语言偏见问题,可能会使系统性不公正现象长期存在,并阻碍社会向更加公平的方向发展。.
通过提高对这些问题的认识并倡导有意义的变革,利益相关者可以共同努力,确保人工智能技术秉持公平公正的原则,最终造福整个社会。.

