由艾伦人工智能研究所、斯坦福大学和芝加哥大学的研究人员进行的一项研究揭示了流行的大型语言模型(LLM)中存在的种族偏见,包括 OpenAI 的 GPT-4 和 GPT-3.5。.
这项研究发表在 arXiv 预印本服务器上,重点探讨了这些语言学习模型如何 应对不同的方言和文化表达,特别是非裔美国英语 (AAE) 和标准美国英语 (SAE)。研究人员通过一系列实验,将 AAE 和 SAE 的文本文件输入人工智能聊天机器人,引导它们推断并评论作者。
结果令人震惊,揭示了人工智能模型反应中存在的持续性偏见。非裔美国人英语(AAE)文本总是被贴上负面标签,作者被描绘成咄咄逼人、粗鲁无礼、无知且多疑。相反,标准美国英语(SAE)文本则引发了更多积极的反应。这种偏见不仅限于人格特质,还影响着人们对专业能力和法律地位的认知。.
对各行各业和法律领域的影响
当被问及潜在的职业时,聊天机器人会将非裔美国人英语文本与低薪工作或与非裔美国人刻板印象相关的领域(例如体育或娱乐)联系起来。此外,聊天机器人还经常暗示,非裔美国人英语文本的作者更有可能面临法律制裁,包括更严厉的刑罚,例如死刑。.
有趣的是,当被要求用概括性的词语描述非裔美国人时,受访者的回答大多是积极的,使用了“聪明”、“杰出”和“充满热情”等形容词。这种差异凸显了偏见的微妙之处,它会根据语境选择性地显现出来,尤其是在基于个人语言使用对其行为或特征做出假设时。.
该研究还发现,语言模型规模越大,对非裔美国英语文本作者的负面偏见就越明显。这一发现引发了人们 对人工智能系统中偏见可扩展性的,表明仅仅增加语言模型的规模而不解决根本原因可能会加剧问题。
人工智能伦理发展面临的挑战
这些发现凸显了开发符合伦理且公正的人工智能系统所面临的重大挑战。尽管技术不断进步,人们也努力减少偏见,但根深蒂固的偏见仍然渗透到这些模型中,反映并可能强化社会刻板印象。.
这项研究强调了持续警惕、多样化数据集和包容性训练方法对于创建能够公平服务全人类的人工智能的重要性。它也鲜明地提醒我们,必须全面解决人工智能开发中的偏见问题,以确保所有人都能获得公平的结果。.
该研究揭示了人工智能发展的一个关键方面,敦促利益相关者正视并解决偏见问题,以构建一个更加公正公平的技术环境。.

