已有证据表明,机器学习在科学研究中的应用存在重大缺陷。许多不同领域的研究论文都dent了这个问题。然而,在普林斯顿大学计算机科学家 Arvind Narayanan 和 Sayash Kapoor 的指导下,一个由 19 位来自不同学科的研究人员组成的团队发布了人工智能指南,旨在指导如何在科学领域负责任地使用机器学习。.
人工智能科学研究指南
作者在报告中指出,他们的工作旨在指出这一可能遍及整个研究生态系统的可信度问题。纳拉亚南认为,目前尚无保护研究方法完整性的通用标准,而机器学习如今已应用于所有科学领域,因此这可能比十年前社会心理学领域出现的可重复性危机更为严重。他将当前的危机称为可重复性危机。正如纳拉亚南所说,
“当我们从传统的统计方法过渡到机器学习方法时,出错的几率会大大增加。”
来源: AzoAI 。
但来自健康研究、计算机科学、社会科学和数学领域的作者们matic带来了一些积极的消息。他们表示,一套最佳实践可以帮助解决当前的问题。计算机专业研究生dent Kapoor)组织了这项研究工作,制定了科学工作清单,并与纳拉亚南(Narayanan)合作。卡普尔表示,问题在于系统性matic因此解决方案也应该是matic。
出版速度可能会放缓,但准确性会提高。
新的基于共识的核查清单旨在确保利用机器学习的研究的真实性。科学的演进建立在结果的可重复性和dent验证的基础上。否则,就无法在前人研究的基础上开展可靠的新研究,整个科学体系的公信力也会丧失。.
新的核对清单要求研究人员提供有关机器学习模型使用情况的详细信息,包括用于训练模型的数据集、模型代码、硬件容量、试点设计和研究目标,以及对研究结果的任何限制,因为重点在于透明度。.
虽然这些新标准的提高要求也有可能减缓新研究成果的发表速度,但该计划的研究人员仍然认为,这些规则的采用将有助于提高整体的发现和创新速度。.
该研究的作者之一,dent表示,他们确实关心科研的进展速度,但通过确保论文的质量达到标准,未来的研究才能以此为基础。卡普尔也指出,考虑到错误对整体的影响,它们会造成不利后果,浪费时间,进而造成资金损失,因为它们会阻碍获得资助和投资的科研项目。

