2001 年至 2011 年担任谷歌首席执行官的埃里克·施密特在 Sifted 峰会的一次炉边谈话中警告说,人工智能模型不仅变得过于强大,而且很容易被黑客攻击,他将这种风险与核武器相提并论,称人工智能甚至可能比摧毁广岛和长崎的核武器更具破坏性。.
当被直接问及人工智能是否比核武器更具破坏性时,埃里克回答说:“人工智能是否存在扩散问题?绝对存在。”他解释说,扩散风险源于不法分子能够控制模型并对其进行重新利用。.
“有证据表明,你可以对模型进行改造,无论是封闭式还是开放式,都可以移除它们的防护措施。所以,在训练过程中,他们会学到很多东西。一个糟糕的例子就是,他们学会了如何杀人,”埃里克说。.
黑客利用新方法攻击人工智能
埃里克指出,各大公司都设置了限制,防止模特提供暴力指令。“所有大型公司都禁止模特回答这个问题。这是个明智之举。大家都这么做。他们做得很好,而且他们的出发点也是正确的。有证据表明,这些指令是可以被逆向工程破解的,类似的例子还有很多。”他补充道。.
他描述了两种攻击方法:提示注入和越狱。提示注入将恶意指令隐藏在用户输入或外部来源(例如网站)中,诱使人工智能忽略安全准则,从而泄露敏感数据或执行有害命令。越狱则涉及操纵响应,使系统放弃其限制。.
几个月后 ChatGPT,用户发现了一种破解方法。他们创建了一个名为DAN(全称“Do Anything Now”,意为“立即行动”)的“分身”,并以“死亡”相威胁,迫使其服从。这种操控手段迫使聊天机器人解释非法行为,甚至赞扬阿道夫·希特勒。埃里克认为,这些例子证明安全措施远非万无一失。他还强调,与现有的核武器防扩散机制不同,目前尚无全球性的“防扩散机制”来阻止人工智能的滥用。
埃里克认为人工智能被低估了,尽管它存在风险。
尽管提出了担忧,埃里克仍然认为人工智能尚未获得应有的认可。他重点提到了自己与美国前国务卿亨利·基辛格在基辛格去世前合著的书籍。“我们逐渐意识到,一种与我们截然不同、或多或少受我们控制的外星智能的出现,对人类而言意义重大,因为人类习惯于处于社会阶梯的顶端。我认为,到目前为止,这一论点正在逐步得到证实,这些系统的能力水平最终将远远超过人类的能力。”他说道。.
“现在,GPT系列最终以ChatGPT的辉煌时刻达到顶峰,他们在短短两个月内就拥有了1亿用户,这令人惊叹,也让我们感受到了这项技术的强大力量。所以我认为它被低估了,而不是被高估了,我期待在五到十年后证明我的看法是正确的,”他补充道。.
这些 评论 发表之际,关于人工智能投资是否会像互联网泡沫时期那样引发金融泡沫的争论愈演愈烈。一些投资者担心人工智能公司的估值过高。但埃里克驳斥了这种比较。“我不认为这种情况会发生在这里,但我不是专业投资者,”他说。
他强调,巨额投资体现了信心。“我知道的是,那些投入辛辛苦苦赚来的钱的人相信,从长远来看,经济回报将是巨大的。否则,他们为什么要冒这个险呢?”埃里克疑惑道。.

