最新消息
为您精选
每周
保持领先

最优质的加密货币资讯直接发送到您的邮箱。.

人工智能能否在医疗保健领域做到公正无偏?研究人员仍在努力寻找答案

经过伊比亚姆·瓦亚斯伊比亚姆·瓦亚斯
阅读时长:2分钟
人工智能能否在医疗保健领域做到公正无偏?研究人员仍在努力寻找答案
  • 麻省理工学院的研究人员发现,人工智能可能会加剧医疗保健系统中的不平等和偏见。.
  • 研究团队发现了四种亚群体变化,这些变化会导致机器学习模型出现偏差。
  • 研究人员表示,为了在医疗保健领域实现更公平的人工智能模型,仍然需要更好地了解不公平的根源。.

每一位患者,无论其身体特征和dent如何,都应享有良好的医疗保健服务。然而,由于医疗和诊断中存在的不平等和隐性偏见,某些人群或群体往往无法获得医疗保健系统的公平对待。. 

医疗保健领域的AI模型存在偏见

麻省理工学院(MIT)的一组研究人员发现,人工智能和机器学习可能会进一步加剧某些群体(通常是代表性不足的群体)在医疗保健方面的差异和不平等现象。这会影响这些群体的诊断和治疗方式。. 

由麻省理工学院电子科学与工程系 (EECS) 助理教授 Marzyeh Ghassemi 领导的研究人员发表了一篇研究论文,分析了 人工智能中可能出现的差异,这些差异导致总体表现良好的模型在涉及代表性不足的子群体时表现不佳。

该分析重点关注“亚群体变化”,报告 defi为“机器学习模型在不同亚群体上的表现差异”。其主要目标是确定人工智能技术可能出现的亚群体变化类型,并为未来开发更公平的模型提供参考。. 

“我们希望这些模型是公平的,并且对所有群体都能同样有效,但相反,我们不断观察到不同群体之间存在差异,这可能导致医疗诊断和治疗效果不佳,”麻省理工学院dent 杨宇哲说。.

研究人员dent导致人工智能模型出现偏见的 4 个转变

麻省理工 学院的研究人员dent了 四种类型的转变——虚假相关性、属性不平衡、类别不平衡和属性泛化——这些转变会导致人工智能技术中的不平等和偏见。 

报告指出:“事实上,偏见可能源于研究人员所说的类别,或者源于属性,或者两者兼而有之。”. 

研究人员举例说明,机器学习模型如何根据 X 光图像的检查结果来确定一个人是否患有肺炎,该模型有两个属性——接受 X 光检查的人是女性还是男性,以及两个类别——一个类别包含患有肺部疾病的人,另一个类别包含未感染的人。.

研究团队解释说:“如果在这个特定的数据集中,每有一个女性被诊断出患有肺炎,就有 100 个男性被诊断出患有肺炎,这可能会导致属性不平衡,模型可能在正确检测男性肺炎方面比在检测女性肺炎方面做得更好。”.

人工智能模型能否以公正的方式工作?

麻省理工学院的研究人员表示,他们通过改进“分类器”和“编码器”,成功减少了虚假相关性、类别不平衡和属性不平衡的发生。然而,另一个问题——“属性泛化”——仍然存在。. 

杨说:“无论我们对编码器或分类器做了什么,在属性泛化方面都没有看到任何改进,我们目前还不知道如何解决这个问题。”

该团队目前正在探索数万名患者和胸部 X 光片的公开数据集,以确定医疗保健专业人员能否在机器学习模型中实现医疗诊断和治疗的公平性。.

然而,他们也承认,我们仍然需要更好地了解不公平的根源以及它们如何渗透到我们当前的制度中,才能达到我们所期望的公平。. 

还在让银行保留最好的部分吗?观看我们的免费视频,了解如何 成为自己的银行

分享这篇文章

免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。

更多…新闻
深度 密码
学速成课程