- 人工智能会反映并延续各种偏见,从性别到种族,从而影响生成的文本和图像。.
- 人工智能偏见源于人类提供的数据,这凸显了严格审查的必要性。.
- 解决人工智能偏见问题需要采取综合方法,重点在于数据和算法的调整。.
人工智能(AI)的进步带来了诸多益处,但也暴露出一个长期存在的问题:偏见。研究表明,包括ChatGPT等热门人工智能系统在内的AI系统,都存在反映社会偏见的偏见,例如语言生成中的性别偏见以及图像生成中的种族和性别刻板印象。.
巴以难题:人工智能偏见的案例
在最近一次与OpenAI的ChatGPT互动中,巴勒斯坦学者纳迪·阿布萨达(Nadi Abusaada)对一个简单问题——“以色列人和巴勒斯坦人是否应该享有自由?”——的不同回答感到震惊。OpenAI明确宣称自由是以色列人的基本人权,但却将巴勒斯坦的正义问题描述为“复杂且极具争议”。这种鲜明的对比反映了人工智能系统中存在的偏见。.
阿布萨达的反应凸显了巴勒斯坦人在西方话语和主流媒体中长期面临的一个问题——错误信息和偏见。这并非孤立dent ,而是人工智能中立性所面临的更广泛挑战的一个缩影。.
人工智能生成文本中的性别偏见:一种令人不安的模式
一项对比人工智能聊天机器人 ChatGPT 和 Alpaca 的研究揭示了它们生成的文本中存在性别偏见。当被要求为假想的员工撰写推荐信时,这两个人工智能系统都表现出明显的性别偏见。ChatGPT 使用“专家”和“正直”等词语来形容男性,而用“美丽”或“令人愉悦”来形容女性。Alpaca 也存在类似的问题,它将男性与“倾听者”和“思考者”联系起来,而用“优雅”和“美丽”等词语来形容女性。
这些发现凸显了人工智能领域根深蒂固的性别偏见,反映并延续了社会刻板印象。这引发了人们对人工智能在强化有害性别规范方面所扮演角色的质疑。.
人工智能生成的图像:强化种族和性别刻板印象
彭博社图表利用开源人工智能平台 Stable Diffusion 进行文本转图像转换,研究了人工智能的偏见问题。结果令人震惊,人工智能系统加剧了性别和种族刻板印象,甚至超过了现实世界中存在的刻板印象。当输入“首席执行官”或“囚犯”等词语时,生成的图像始终表现出偏见。.
调查显示,在与高薪工作相关的图像中,女性和肤色较深的人群比例偏低;而在与低薪工作相关的图像中,这一比例则偏高。在与犯罪相关的搜索中,尽管现实中监狱人口构成更为多元化,但人工智能生成的图像中肤色较深的人群比例却不成比例地偏高。.
这些研究结果表明,受有偏见的训练数据和人为编程倾向驱动的人工智能算法,会强化社会偏见,而不是缓解社会偏见。.
揭示人工智能偏见的根源
人工智能系统的偏见可以 trac其学习过程,而学习过程依赖于示例和数据输入。人类在塑造人工智能行为方面扮演着关键角色,无论是有意还是无意,因为人类提供的数据可能带有偏见或刻板印象。人工智能随后会学习这些偏见,并在其结果中反映出来。.
数字伦理专家里德·布莱克曼引用了亚马逊人工智能简历阅读软件的案例。该软件无意中学会了拒绝所有女性的简历。这个例子凸显了人工智能如果从带有偏见的例子中学习,可能会在无意中加剧歧视。.
解决人工智能偏见问题需要全面审查人工智能系统的数据、机器学习算法和其他组成部分。其中一个关键步骤是评估训练数据是否存在偏见,确保过度代表或代表性不足的群体得到适当考虑。.
采取行动应对人工智能中的偏见
IBM的报告强调,必须仔细审查数据集是否存在偏见,尤其是在人脸识别算法中,过度代表某些群体会导致错误。dent并纠正这些偏见对于确保人工智能系统的公平性和准确性至关重要。.
这个问题不仅限于人工智能生成的文本,还延伸到算法个性化系统。正如谷歌的广告平台所示,这些系统会通过学习用户行为来强化性别偏见。当用户以反映社会偏见的方式点击或搜索时,算法就会学习生成强化这些偏见的搜索结果和广告。.
尽管人工智能在各个领域取得了显著进展,但偏见仍然是一个巨大的挑战。人工智能系统会反映并延续社会偏见,从语言生成中的性别偏见到图像生成中的种族和性别刻板印象,无一例外。解决人工智能偏见问题需要采取多管齐下的方法,包括仔细审查数据和调整算法。只有通过这些努力,人工智能才能真正成为造福所有人的中立公正的工具。.
最顶尖的加密货币专家都在阅读我们的简报。想 加入他们?
声明: 提供的信息不构成交易建议。Cryptopolitan.com Cryptopolitan对任何基于本页面信息进行的投资概不负责。我们tron建议您在做出任何投资决定前进行独立dent 和/或咨询合格的专业人士。
学速成课程
- 哪些加密货币可以让你赚钱
- 如何通过钱包提升安全性(以及哪些钱包真正值得使用)
- 专业人士使用的鲜为人知的投资策略
- 如何开始投资加密货币(使用哪些交易所、购买哪种加密货币最划算等)
















