由 Fairly Trained 颁发的生成式人工智能中数据伦理使用认证

- “公平训练”认证符合伦理的人工智能数据使用,以确保透明度
- 经双方同意获取数据;开放许可或开发者所有制模式
- 流程严格,需缴纳年费;警告违规行为
针对创作者、知识产权持有者和生成式人工智能公司之间就数据伦理使用问题持续存在的争议,一个新的非营利组织“公平训练”(Fairly Trained)应运而生,成为生成式人工智能模型开发中透明和协商一致的数据实践的标杆。.
由首席执行官埃德-牛顿·雷克斯 (Ed-Newton Rex) 领导的 Fairly Trained 致力于弥合生成式人工智能公司之间的鸿沟。一些公司优先考虑获得数据提供者的同意,而另一些公司则认为没有法律义务这样做。该组织认为,消费者有权了解公司如何处理受版权保护的材料,并为此提供了一套认证流程,旨在帮助那些致力于合乎道德地使用数据的公司。.
L认证:基于同意的培训标志
Fairly Trained 目前提供一种认证,称为授权模型认证(L 认证)。任何使用通过协商一致协议获得的数据训练模型的生成式人工智能系统提供商均可获得此认证。.
要获得L级认证,公司必须确保训练数据符合特定前提条件。首先,数据应根据与拥有必要权利的当事方签订的trac协议提供给模型开发者。其次,数据必须以开放许可发布、属于公共领域或完全由模型开发者拥有。从向创作者发放许可的机构(例如唱片公司或图库)获得许可,也被视为符合认证要求。.
严格的申请流程和持续的合规性
申请认证的公司必须经过严格的申请流程。这包括展示完善的数据尽职调查流程,并保存每个模型所用训练数据的完整记录。申请流程首先需要填写在线表格,之后由 Fairly Trained 审核提交内容,并可能要求提供补充信息。.
申请成功后,公司需缴纳年度认证费,费用根据其收入而定,从 500 美元到 6,000 美元不等。该费用旨在支持 Fairly Trained 持续致力于维护生成式人工智能行业的道德标准。.
警告违规行为和撤销认证
“公平培训”组织强调其致力于维护道德标准,并警告称,任何被发现违反其规则或类别的公司都将被撤销认证。如果出现可能影响认证结果的新信息,该组织保留撤销认证且不予退款的权利。.
Fairly Trained推出的L认证旨在解决人们日益关注的生成式人工智能系统开发中数据伦理使用问题。该组织通过提供一套清晰的基于用户同意的实践框架,旨在帮助消费者了解那些在人工智能训练过程中优先考虑伦理考量的公司。随着生成式人工智能领域的不断发展,Fairly Trained的认证有望成为业内公司展现其对负责任且透明的数据实践承诺的标杆。.
最顶尖的加密货币专家都在阅读我们的简报。想 加入他们?
免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。
学速成课程
- 哪些加密货币可以让你赚钱
- 如何通过钱包提升安全性(以及哪些钱包真正值得使用)
- 专业人士使用的鲜为人知的投资策略
- 如何开始投资加密货币(使用哪些交易所、购买哪种加密货币最划算等)















