谷歌、OpenAI 和 Meta 已达成共识,如果无法控制风险,将停止开发任何人工智能模型。这三家公司于周二在英国和韩国联合主办的首尔人工智能峰会上签署了“人工智能安全承诺”。.
另请阅读:英国与韩国合作举办人工智能峰会
这是世界历史上首次有来自世界各地如此多的领先人工智能公司共同就人工智能安全做出相同的承诺。.
— 英国首相里希·苏纳克
16家人工智能公司同意遵守人工智能安全承诺
据报道,共有 16 家人工智能公司同意签署安全承诺,这些公司来自美国、中国和中东。
微软、亚马逊、Anthropic、tron电子和中国开发商智普爱等公司也同意遵守这些安全标准。.
另请阅读:阿里巴巴和腾讯向人工智能初创公司智普投资3.42亿美元
人工智能安全承诺要求所有公司在 2025 年初在法国举行的另一届人工智能行动峰会之前公布各自的安全框架。该框架将解释公司如何确定其模型的风险以及哪些风险“被认为是不可接受的”。
人工智能公司将停止使用高风险人工智能模型
报告称,在最极端的情况下,如果风险无法控制,这些公司将“根本不会开发或部署模型或系统”。.
只有当我们能够掌控风险时,人工智能的真正潜力才能得以释放。确保人工智能的安全发展是我们每个人的责任。.
——英国科技大臣米歇尔·多内兰
2023年7月,美国政府也采取了类似的措施来应对人工智能的风险和益处。dent 乔·拜登会见了谷歌、微软、Meta、OpenAI、亚马逊、Anthropic和Inflection等公司的代表,讨论如何确保人工智能产品在发布前具备安全性,并制定相应的安全保障措施。.
OpenAI引发的AI安全争议愈演愈烈
近几个月来,关于人工智能安全性的讨论愈演愈烈,尤其是围绕通用人工智能(AGI)的讨论,通用人工智能旨在模仿人类的通用智能。.
上周,OpenAI这家公司成为了这场讨论的焦点,其联合创始人伊利亚·苏茨克维尔(Ilya Sutskever)和高管扬·莱克(Jan Leike)相继辞职。这两人负责OpenAI的超级对齐团队,该团队旨在防止其模型失控。.
另请阅读: OpenAI 另一位高管 Jan Leike 辞职
雷克在帖子中表示,“过去几年,公司对光鲜亮丽的产品过于重视,而对安全文化和流程的重视则退居其次”。.
我们早就应该认真对待通用人工智能(AGI)带来的影响了。
— Jan Leike (@janleike) 2024年5月17日
我们必须优先做好充分的准备。
只有这样,我们才能确保AGI造福全人类。
雷克补充说,“OpenAI 必须成为一家安全至上的通用人工智能公司”,我们必须尽最大努力为他们做好准备,以确保通用人工智能造福全人类。.
伊比亚姆·瓦亚斯 (Ibiam Wayas) 的Cryptopolitan 报道

