Anthropic公司首席执行官达里奥·阿莫迪(Dario Amodei)近日表示,人工智能公司应该接受强制性测试。这同样适用于他自己的公司Anthropic。其目的是确保这些技术在发布前对公众安全无害。.
阿莫迪是在最近由美国商务部和国务院在旧金山联合举办的人工智能安全峰会上回答一个问题的。他在回答中表示:“我认为我们绝对必须强制进行测试,但我们也需要非常谨慎地对待测试方式。”
此前,英国和美国的AI安全研究所发布了一份报告,公布了他们对Anthropic公司Claude 3.5 Sonnet模型的测试结果。这些测试涵盖了生物安全和网络安全等多个应用领域。此前,OpenAI和Anthropic都已同意向政府机构提交各自的模型。.
像Anthropic这样的大公司都遵循自行制定的安全准则。
阿莫迪提到,一些大型公司已自愿同意遵守某些自行制定的准则,包括OpenAI的准备框架和Anthropic的负责任扩展政策。但他补充说,仍需做更多工作来确保安全。.
阿莫迪说:“目前没有任何措施可以真正核实或确保这些公司是否真正按照计划执行。他们只是口头承诺过而已。”他还补充道:“我认为公众的关注以及员工的关心确实带来了一些压力,但我最终认为这还不够。”
阿莫迪认为,强大的AI系统有能力超越最聪明的人类。他还认为,这类系统有望在2026年问世。他补充说,AI公司仍在测试一些灾难性危害和生物威胁,这些威胁目前都还不存在。然而,这些假设性的测试可能很快就会成为现实。.
他还提醒说,考虑到人工智能技术日新月异,对人工智能系统的测试要求应该具有灵活性。用他的话说,这是一个非常棘手的“社会政治问题”。.

