Your bank is using your money. You’re getting the scraps.WATCH FREE

诺贝尔奖得主与政界人士和科学家联名发出紧急呼吁,要求遏制人工智能的危险用途。

本文内容:

  • 包括 10 位诺贝尔奖获得者和顶尖人工智能研究人员在内的 200 多位领导人敦促在 2026 年前对危险的人工智能用途设定具有约束力的国际限制。.
  • 拟议的禁令包括致命的自主武器、自我复制的人工智能以及用于核战争的人工智能。.
  • 这项在联合国大会上发布的全球呼吁强调,人工智能公司的自愿承诺是不够的。.

推动各国政府就具有约束力的国际限制达成一致,以遏制人工智能技术滥用的运动已经升级到联合国层面,超过 200 位政界领袖、科学家和思想领袖,包括 10 位诺贝尔奖获得者,都对该技术的风险发出了警告。

这份于周一在联合国大会高级别周开幕式上发布的声明被称为《全球人工智能红线呼吁》。声明指出,人工智能“目前的发展轨迹带来了dent的危险”,并要求各国努力在2026年底前达成一项关于明确、可核查限制的国际协议。.

诺贝尔奖得主在联合国带头呼吁.

诺贝尔和平奖得主、记者玛丽亚·雷萨在开幕致辞中呼吁各国政府“防止普遍不可接受的风险”,并 defi人工智能绝对不应该被允许做什么。.

签署该声明的人士包括诺贝尔化学奖、经济学奖、和平奖和物理学奖得主,以及斯蒂芬·弗莱和尤瓦尔·诺亚·赫拉利等著名作家。爱尔兰前dent 玛丽·罗宾逊和哥伦比亚前dent 胡安·曼努埃尔·桑托斯(他也是诺贝尔和平奖得主)也签署了该声明。.

被誉为“人工智能教父”的杰弗里·辛顿和约书亚·本吉奥,以及被广泛认为是计算机科学界诺贝尔奖的图灵奖获得者,也在声明上签了名。.

另见:  比亚迪因销售低迷而暂停在华生产和扩张计划

哈拉里说:“这是一个转折点。在人工智能技术以我们无法理解的方式重塑社会并摧毁我们人性的根基之前,人类必须就人工智能的明确底线达成一致。”

过去对人工智能发出警示的努力往往侧重于企业和政府的自愿承诺。2023年3月,包括埃隆·马斯克在内的1000多位科技领袖呼吁暂停开发功能强大的人工智能系统。几个月后,OpenAI的萨姆·奥特曼和 谷歌DeepMind的 德米斯·哈萨比斯等人工智能高管签署了一份简短声明,将人工智能带来的生存风险与核战争和流行病的风险相提并论。

人工智能引发了人们对生存和社会风险的担忧

就在上周,人工智能被牵涉到一系列案件中,从青少年自杀到利用人工智能操纵公共辩论的报道。.

签署者 认为,这些眼前的风险可能很快就会被更大的威胁所掩盖。评论人士警告说,如果不加以控制,先进的人工智能系统可能导致大规模失业、人为制造的流行病或系统性的matic 侵犯。

禁运清单上的一些项目包括禁止致命的自主武器、禁止自我复制的人工智能系统,以及确保人工智能永远不会被部署到核战争中。.

“防止人工智能对人类造成严重且可能不可逆转的损害,符合我们所有人的共同利益,我们应该采取相应的行动。”禁止化学武器组织前总干事艾哈迈德·乌祖姆居说道。该组织在他的领导下获得了2013年诺贝尔和平奖。.

另请参阅:  GTA 3 开发人员分享标志性电影matic 镜头的诞生

包括英国智库Demos和北京人工智能安全与治理研究院在内的60多个民间社会组织已签署了这封信。此次行动由三个非营利组织协调:加州大学伯克利分校人机兼容人工智能中心、未来社会组织和法国人工智能安全中心。.

这样的公司最近做出了安全承诺 OpenAI ,同意在发布模型之前接受政府测试,但研究表明,这些公司只履行了大约一半的承诺。

雷萨说:“我们不能再等了。我们必须在人工智能发展到我们无法控制的地步之前采取行动。”

不要只是阅读加密货币新闻,要理解它。订阅我们的新闻简报, 完全免费

分享链接:

免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。

阅读最多

正在加载最热门文章…….

随时掌握加密货币新闻动态,每日更新将发送至您的邮箱。

编辑推荐

正在加载编辑精选文章…….

订阅加密货币资讯,掌握先机

市场瞬息万变。.

我们行动更快。.

订阅 Cryptopolitan Daily,即可在您的收件箱中及时获取敏锐、精辟、相关的加密货币见解。.

立即加入,
不错过任何精彩瞬间。

深入了解情况,掌握事实,
抢占先机。

订阅 CryptoPolitan