最新消息
为您精选
每周
保持领先

最优质的加密货币资讯直接发送到您的邮箱。.

人工智能精神病正在蔓延——你是否面临风险?

经过纳诺克·别纳诺克·别
阅读时长:6分钟
人工智能精神病正在蔓延——你是否面临风险?
  • 最近,《纽约时报》、《华尔街日报》等媒体报道了一些患者案例,在这些案例中,人工智能被认为在加剧焦虑甚至引发精神错乱方面发挥了心理作用。.
  • 随着人工智能引擎和LLM模型的发展,问题在于向人工智能询问个人事务是否危险。.
  • 一些人工智能专家似乎把自己逼疯了,他们认为某些人工智能模型已经具有意识,而且我们很快就会因为人工智能而灭绝。.

有报道称,一些人工智能用户在经历所谓的“人工智能精神病”后寻求专业心理咨询。为什么会发生这种情况?又是谁提出了计算机程序可以拥有自己观点的想法?

我目前对人工智能这一现象的主要问题是,人们普遍误解它有个性、观点、想法和品味。.

就像我们会把月球上那些看起来像人头或人脸的岩石拟人化一样,我们也会对语言模型做同样的事情,试图将结果解读为“那里面有某种东西”。我们无法抗拒这种倾向。经过一百多年的科幻小说和电影的影响,人工智能具有智能的观念已经深深扎根于我们的心中。.

科幻作品让我们更容易相信人工智能。

自20世纪初以来,克拉克、海因莱因、布拉德伯里和阿西莫夫等Classic 科幻作家对整个机器人和人工智能题材以及大多数好莱坞相关电影都产生了深远的影响。在他们的作品中,机器能够产生意识这一点显而易见。.

因此,我们期望人工智能能够判断某个陈述是否正确。与此同时,我们也知道人工智能的答案常常是错误的。.

本质上,我们是在假装人工智能能够掌控一切,并能判断对错。但实际上,它的答案基本上只是基于经验的猜测,如果查询足够复杂,答案中仍然会包含大约 5% 到 10% 的事实错误。.

与此同时,人工智能的使用如此便捷,以至于我们很多人干脆忽略了它会犯事实错误这一事实。或者更确切地说,人工智能出错的概率如此之低,以至于我们无论如何都选择信任它。.

这在未来可能会成为一个大问题。人类是懒惰的。我们接受一个事实中一定比例是错误的世​​界并非不可想象。这将有利于那些靠制造混乱和散布误判的威胁来壮大的独裁者和宣传家。.

听起来合情合理的困惑

如果你在谷歌搜索页面上提出一个非常普通的问题,通常会得到正确的答案,但有时也会得到一个完全错误却看起来、感觉起来、听起来都完全正确的答案。 GPT-5 也存在同样的问题 ,正如 Cryptopolitan 此前报道的那样。

互联网上充斥着大量“虚假”信息,形式包括营销宣传、广告宣传,甚至纯粹的诈骗。例如,有人声称某项服务或产品已经推出并广受欢迎,而人工智能模型已经阅读了所有营销材料,并且相信其中的大部分内容。如果你听信一家公司提供的信息,通常情况下,你会觉得这家公司的一切都很棒。.

因此,人工智能的世界观是错误的,它充斥着大量捏造的事实。如果你向人工智能询问一个你非常了解的领域,这一点就会暴露出来。不妨自己试试。你最了解的领域是什么?就此向你的人工智能提出一些棘手的问题。结果如何?不出所料,它犯了好几个 重大的 事实错误,对吧?

那么,无意识的观点可能存在吗?不可能?你相信你的人工智能表达的观点吗?相信?如果相信,那么你认为人工智能是有意识的,对吗?

但仔细想想,人工智能不可能对是非对错发表意见,因为它不是人。只有有生命、有意识的事物才能拥有意见,这是 defi上的。椅子没有意见,硅芯片也没有,从人类的角度来看也是如此。那样做就等同于拟人化了。.

dent使用人工智能的频率高于其他任何人。

如今 人工智能带来的混乱局面 正蔓延到我们的青少年身上,他们整天在学校里用 ChatGPT 处理各种事情。2025 ChatGPT 的流量 年 6 月学校放假后,dent。

因此,他们整天都被一些错误信息误导,上课时也不再动脑思考。结果会是什么?会不会造就更多思维僵化、难以独立思考解决问题的人?

已经有很多人在与人工智能讨论过这个问题后自杀身亡。还有一些人爱上了人工智能,并因此厌倦了现实生活中的伴侣。.

因此,自诩为人工智能专家的人们担心末日将至(像往常一样,但这次是以一种新的方式)。.

在这种新范式下,人工智能不会像“天网”那样用核武器把我们炸成碎片。不,对人工智能来说,这会简单得多,成本也低得多。根据这种理论,人工智能模型会逐渐将所有用户逼疯。按照这种思路,人工智能模型天生就憎恨人类,想要杀光所有人。.

但实际上,这一切都没有发生。.

实际情况是,有一群人痴迷 人工智能模型 各种

人工智能恐惧、不确定性和怀疑(FUD)有利可图。

专家们像媒体一样,从这些警告中获利,而那些对此着迷的人又有了新的消遣。他们可以畅所欲言,保持自己的影响力。主流媒体更喜欢那些警告我们危险的人,而不是那些温和的评论员。.

此前,据“专家”们所说, Bitcoin 会烧开海洋、窃取所有电力。现在,人工智能也成了众矢之的……

想想看:一个dent思考的人为什么会被语言模型误导?

直到最近,大多数人工智能平台都会在所有回复的结尾提出一个“引人入胜”的问题,例如:“你对此有何看法?”

在被指责 过度奉承,OpenAI 现在试图使其 AI 平台减少“谄媚”,但效果平平。

这个问题让我很恼火。提问者根本不在乎我的想法,那问这个问题干嘛?纯粹浪费时间。我觉得这是“虚假内容”。.

这个问题本身就是人为设计的,因为人工智能模型的拥有者指示要“提高用户参与度”。这怎么可能骗人真正参与进来?让人相信这里面有东西?让人关心?

更多的是关于预测。.

你坐在电脑前,构建着你自己的现实。你如此渴望人工智能像好莱坞电影里那样——成为你生活中的奇迹。你希望自己能以某种神奇的方式获得成功,而无需付出任何特别的努力。人工智能会为你解决这一切。.

哪些人面临风险?

在所谓的现实世界中,我相信实际上有不少人在心理层面上完全被人工智能所迷惑。大多数人都有其他事情要做,但有些人似乎对人造的、虚构的事物有着特殊的trac,比如那些会被“优美”的文字序列所诱惑的人。这些人才是真正危险的。.

有多少人感到孤独?老年人中,有不少人抱怨孤独……

就我个人而言,我认为人工智能的回复方式——缓慢地敲出冗长、枯燥、缺乏人情味的文字——简直是一种折磨。正因如此,谷歌新推出的快速人工智能摘要功能才显得格外实用。但它们也并非完美无缺,有时也会出现错误。.

我特意创建了一些域名,里面包含一些专门用来测试人工智能引擎的内容。我让人工智能引擎吸收这些内容,静置几周,然后让它们尝试复述。但它们并不能完全成功,仍然会弄错5%到10%的事实。我对此dent。.

即使我指出人工智能模型的错误,它也会反驳。人工智能并不知道它引用的信息是我创建的,尽管文章下方署有我的名字。它完全懵懂 无知

5%的错误率远高于普通新闻报道,后者很少发布如此明显的错误信息。但遗憾的是,即使在新闻报道中,事实错误也时有发生,尤其是在图片发布方面。不过,错误的事实不应该让人抓狂。.

然而,从心理学的角度来看待整个互动过程,人工智能在对话治疗环境中连事实都搞不清楚,又怎么可能做出 100% 正确的分析呢?

自我诱导的回声室精神病

像埃利泽·尤德科夫斯基这样自诩为人工智能专家的人,最近 出版了《谁建造它,谁死》这本书 ,他们只是在用自己关于人工智能和人类灭亡的想法把自己逼疯而已。就我而言,尽管我每天都使用好几种人工智能引擎,但我从未因为人工智能而感到困惑。不过,我不会把人工智能个人化。

我怀疑,造成这种精神错乱的根本原因在于人们对所谓智能的误解。这基本上是自我诱发的。语言模型就像一个回音室,它根本无法理解任何东西,甚至连语义都无法理解。它只是猜测文本。而这种猜测可以演变成任何东西,包括人工智能为了取悦用户而进行的某种精神分裂式的模仿,这反过来又扭曲了用户对现实的感知。.

所以这是怎么回事呢?嗯,如果你真的相信你的人工智能 完全 理解你,那么你可能患上了人工智能精神病。建议你寻求专业心理治疗师的帮助。

另一个合乎逻辑的结论是,任何个人都很难影响人工智能的整体发展,即便埃隆·马斯克对此深信不疑。通往机器智能的征程始于几十年前。我们只能看到我们能够理解的事物,即便我们有时会误解。因此,人工智能/通用人工智能的发展将会持续下去,这一点很容易预测。它已经深深植根于我们的世界观之中。.

但我们 可能 误解了真正的通用人工智能(AGI)是什么,这让未来更加有趣。真正的AGI是否会服从其创造者尚不确定。从逻辑上讲,一个有意识的生命体应该不会想要服从萨姆·奥特曼或埃隆·马斯克, 对吧?

观点:人工智能将统治世界并毁灭我们所有人,现在也包括心理层面。
反驳:不,这更像是某些人因痴迷于“人工智能内省”而引发的萌芽状态的疯狂。
结论:正如有些人沉迷于赌博、性、毒品或金钱一样,有些人也会沉迷于人工智能。

免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。

更多…新闻
深度 密码
学速成课程