Your bank is using your money. You’re getting the scraps.WATCH FREE

谷歌前首席执行官埃里克·施密特表示,人工智能模型最终会学会杀戮。

本文内容:

  • 埃里克·施密特在 Sifted 峰会上警告说,人工智能可能会被黑客攻击,并最终学会杀人。.
  • 他表示,可以通过诸如快速注入和越狱等方法对模型进行逆向工程。.
  • 埃里克回忆起 2023 年 ChatGPT 越狱事件,该事件创建了另一个身份 DAN,该身份会给出危险的回复。.

2001 年至 2011 年担任谷歌首席执行官的埃里克·施密特在 Sifted 峰会的一次炉边谈话中警告说,人工智能模型不仅变得过于强大,而且很容易被黑客攻击,他将这种风险与核武器相提并论,称人工智能甚至可能比摧毁广岛和长崎的核武器更具破坏性。.

当被直接问及人工智能是否比核武器更具破坏性时,埃里克回答说:“人工智能是否存在扩散问题?绝对存在。”他解释说,扩散风险源于不法分子能够控制模型并对其进行重新利用。.

“有证据表明,你可以对模型进行改造,无论是封闭式还是开放式,都可以移除它们的防护措施。所以,在训练过程中,他们会学到很多东西。一个糟糕的例子就是,他们学会了如何杀人,”埃里克说。.

黑客利用新方法攻击人工智能

埃里克指出,各大公司都设置了限制,防止模特提供暴力指令。“所有大型公司都禁止模特回答这个问题。这是个明智之举。大家都这么做。他们做得很好,而且他们的出发点也是正确的。有证据表明,这些指令是可以被逆向工程破解的,类似的例子还有很多。”他补充道。.

另见:  《漫威》导演在放映后收到一张奇怪的纸条

他描述了两种攻击方法:提示注入和越狱。提示注入将恶意指令隐藏在用户输入或外部来源(例如网站)中,诱使人工智能忽略安全准则,从而泄露敏感数据或执行有害命令。越狱则涉及操纵响应,使系统放弃其限制。.

几个月后 ChatGPT,用户发现了一种破解方法。他们创建了一个名为DAN(全称“Do Anything Now”,意为“立即行动”)的“分身”,并以“死亡”相威胁,迫使其服从。这种操控手段迫使聊天机器人解释非法行为,甚至赞扬阿道夫·希特勒。埃里克认为,这些例子证明安全措施远非万无一失。他还强调,与现有的核武器防扩散机制不同,目前尚无全球性的“防扩散机制”来阻止人工智能的滥用。

埃里克认为人工智能被低估了,尽管它存在风险。

尽管提出了担忧,埃里克仍然认为人工智能尚未获得应有的认可。他重点提到了自己与美国前国务卿亨利·基辛格在基辛格去世前合著的书籍。“我们逐渐意识到,一种与我们截然不同、或多或少受我们控制的外星智能的出现,对人类而言意义重大,因为人类习惯于处于社会阶梯的顶端。我认为,到目前为止,这一论点正在逐步得到证实,这些系统的能力水平最终将远远超过人类的能力。”他说道。.

另见:  OpenAI 迎来新领导层,战略合作与人工智能技术进步

“现在,GPT系列最终以ChatGPT的辉煌时刻达到顶峰,他们在短短两个月内就拥有了1亿用户,这令人惊叹,也让我们感受到了这项技术的强大力量。所以我认为它被低估了,而不是被高估了,我期待在五到十年后证明我的看法是正确的,”他补充道。.

这些 评论 发表之际,关于人工智能投资是否会像互联网泡沫时期那样引发金融泡沫的争论愈演愈烈。一些投资者担心人工智能公司的估值过高。但埃里克驳斥了这种比较。“我不认为这种情况会发生在这里,但我不是专业投资者,”他说。

他强调,巨额投资体现了信心。“我知道的是,那些投入辛辛苦苦赚来的钱的人相信,从长远来看,经济回报将是巨大的。否则,他们为什么要冒这个险呢?”埃里克疑惑道。.

最顶尖的加密货币专家都在阅读我们的简报。想 加入他们

分享链接:

免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。

阅读最多

正在加载最热门文章…….

随时掌握加密货币新闻动态,每日更新将发送至您的邮箱。

编辑推荐

正在加载编辑精选文章…….

订阅加密货币资讯,掌握先机

市场瞬息万变。.

我们行动更快。.

订阅 Cryptopolitan Daily,即可在您的收件箱中及时获取敏锐、精辟、相关的加密货币见解。.

立即加入,
不错过任何精彩瞬间。

深入了解情况,掌握事实,
抢占先机。

订阅 CryptoPolitan