Your bank is using your money. You’re getting the scraps.WATCH FREE

人格组织首席执行官呼吁对人工智能模型的安全性保持谨慎态度

本文内容:

  • Anthropico首席执行官在最近的一次人工智能安全峰会上倡导人工智能模型的安全。.
  • 他提到,目前各公司都遵循一些自行制定的准则。.
  • 这位首席执行官还补充说,随着技术的不断发展,人工智能系统的测试要求也应该具有灵活性。.

Anthropic公司首席执行官达里奥·阿莫迪(Dario Amodei)近日表示,人工智能公司应该接受强制性测试。这同样适用于他自己的公司Anthropic。其目的是确保这些技术在发布前对公众安全无害。. 

阿莫迪是在最近由美国商务部和国务院在旧金山联合举办的人工智能安全峰会上回答一个问题的。他在回答中表示:“我认为我们绝对必须强制进行测试,但我们也需要非常谨慎地对待测试方式。”

此前,英国和美国的AI安全研究所发布了一份报告,公布了他们对Anthropic公司Claude 3.5 Sonnet模型的测试结果。这些测试涵盖了生物安全和网络安全等多个应用领域。此前,OpenAI和Anthropic都已同意向政府机构提交各自的模型。.

像Anthropic这样的大公司都遵循自行制定的安全准则。

阿莫迪提到,一些大型公司已自愿同意遵守某些自行制定的准则,包括OpenAI的准备框架和Anthropic的负责任扩展政策。但他补充说,仍需做更多工作来确保安全。.

阿莫迪说:“目前没有任何措施可以真正核实或确保这些公司是否真正按照计划执行。他们只是口头承诺过而已。”他还补充道:“我认为公众的关注以及员工的关心确实带来了一些压力,但我最终认为这还不够。”

另见:  人工智能服务器需求推动富士康第四季度营收创历史新高

阿莫迪认为,强大的AI系统有能力超越最聪明的人类。他还认为,这类系统有望在2026年问世。他补充说,AI公司仍在测试一些灾难性危害和生物威胁,这些威胁目前都还不存在。然而,这些假设性的测试可能很快就会成为现实。.

他还提醒说,考虑到人工智能技术日新月异,对人工智能系统的测试要求应该具有灵活性。用他的话说,这是一个非常棘手的“社会政治问题”。.

最顶尖的加密货币专家都在阅读我们的简报。想加入他们

分享链接:

免责声明:提供的信息并非交易建议。Cryptopolitan.com对任何基于本页面信息进行的投资概不负责。我们Cryptopolitantron您在做出任何投资决定前进行独立研究dent/或咨询合格的专业人士。

阅读最多

正在加载最热门文章…….

随时掌握加密货币新闻动态,每日更新将发送至您的邮箱。

编辑推荐

正在加载编辑精选文章…….

订阅加密货币资讯,掌握先机

市场瞬息万变。.

我们行动更快。.

订阅 Cryptopolitan Daily,即可在您的收件箱中及时获取敏锐、精辟、相关的加密货币见解。.

立即加入,
不错过任何精彩瞬间。

深入了解情况,掌握事实,
抢占先机。

订阅 CryptoPolitan