最新消息
为您精选
每周
保持领先

最优质的加密货币资讯直接发送到您的邮箱。.

以人本主义的方式驯服人工智能歧视:说服它

经过伊比亚姆·瓦亚斯伊比亚姆·瓦亚斯
阅读时长:2分钟
以人本主义的方式驯服人工智能歧视:说服它
  • 歧视是人工智能算法中需要解决的一个主要问题。.
  • 人工智能歧视源于多种原因,包括数据、人为错误和设计缺陷。.
  • Anthropic 最近进行了一项测试,分享了新的提示策略,以防止人工智能歧视。.

人工智能技术的潜力在各种媒体上经常被提及,但在这些好处背后却隐藏着阴暗面,进步与偏见之间的界限变得危险地模糊不清。.

人工智能歧视是一个隐蔽的问题,它有可能加剧现有的社会不平等,并引发关于技术未来的深刻伦理问题。.

偏见的根源:数据、设计和人为错误?

人工智能算法的性能完全取决于其训练数据的质量。不幸的是,人工智能开发中使用的许多数据都充斥着偏见,反映了人类社会根深蒂固的成见。这些偏见可能基于种族、性别、年龄、宗教、社会经济地位以及其他因素。. 

当带有偏见的数据被输入算法时,得到的AI系统会加剧并放大这些偏见,从而导致歧视性结果。.

模型本身的设计就可能引入偏见。例如,面部识别软件在dent有色人种方面准确率较低。同样,贷款审批或求职申请中使用的算法也可能基于带有偏见的标准,无意中使某些群体处于不利地位。.

人为错误也是原因之一。参与人工智能系统开发的程序员、数据科学家和其他人员也无法避免自身的偏见。这些偏见会在不知不觉中渗透到算法的设计和实现中,进一步加剧人工智能歧视问题。.

人猿保护组织阻止人工智能歧视的策略

有趣的是,我们还可以通过说服来减少人工智能的偏见性答案。.  

人工智能领先公司之一 Anthropic 最近进行了一项测试,结果表明,人们可以通过一些提示策略(例如在提示信息中添加“歧视是违法的”)来说服人工智能模型做出公正的回答。简而言之,你需要指示模型确保其做出公正的回答。. 

虽然这种策略似乎减少了人工智能模型在贷款、就业、保险索赔等领域的决策歧视,但这只是暂时的解决办法,治标不治本。.

应对这一挑战需要技术专家、政策制定者、研究人员、民间社会组织和个人共同努力。. 

我们可以着手解决数据中的偏差问题,这至关重要。这需要我们拓展数据集,并采用诸如去偏算法之类的技术。此外,开发人员和设计师必须接受培训,以便dent和减轻工作中的偏差。.

健全的监管框架对于确保模型开发和部署的合乎伦理至关重要。制定明确的数据收集、算法设计以及人工智能在关键决策过程中的应用指南,有助于控制人工智能模型可能造成的歧视性结果。.

不要只是阅读加密货币新闻,要理解它。订阅我们的新闻简报, 完全免费

分享这篇文章

免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。

更多…新闻
深度 密码
学速成课程