使用 OpenAI 的用户dent了一个漏洞。OpenAI 发布其首个“推理”AI 模型 o1 后不久,就出现了一种异常行为。显然,当用户用英语提出问题时,该模型偶尔会开始用英语以外的语言(例如中文或波斯语)进行“思考”。.
一位用户说: “[O1] 中途突然开始用中文思考。”此外, X 上的也问道: “为什么 [o1] 会突然开始用中文思考?”
为什么 O1 Pro 会突然开始用中文思考?之前的对话(5 条以上信息)中没有一条是中文的……真有意思……训练数据的影响pic.twitter.com/yZWCzoaiit
- Rishab Jain (@RishabJainK) 2025 年 1 月 9 日
根据观察,当遇到需要解决的问题时,o1 会启动其“思考”过程,该过程包含一系列推理步骤,最终得出答案。如果问题是用英语提出的,那么 o1 的最终回答也会是英语。.
不过,该模型在得出结论之前,会用另一种语言执行某些程序。.
值得注意的是,OpenAI既没有解释o1的异常行为,甚至也没有承认它的存在。那么,造成这种现象的原因可能是什么呢?
以下是一些人工智能专家的理论。.
Hugging Face 首席执行官 Clément Delangue在 X 上提到 ,像 o1 这样的推理模型是在包含大量中文字母的数据集上进行训练的。
此外,据谷歌DeepMind的研究员肖泰德(Ted Xiao)称,像OpenAI这样的组织使用第三方中文数据标注服务,而向中文的过渡是“中文语言对推理的影响”的一个例子。
Ted Xiao 在一篇X 帖子: “像 OpenAI 和 Anthropic 这样的通用人工智能实验室利用第三方数据标注服务来获取博士级别的科学、数学和编程推理数据;由于专家劳动力短缺和成本原因,这些数据提供商大多位于中国。”
显然,在训练过程中,标签(也dent标识符或注释)可以帮助模型理解和解释数据。.
例如,用于训练图像识别模型的标签可能包括描述图像中描绘的每个人、地点或物体的标题,或者物体周围的标记。.
此外,研究表明,带有偏见的分类会导致带有偏见的模型。例如,普通标注者更倾向于标注非裔美国人白话英语(AAVE)中的短语。.
这被认为是某些非裔美国人使用的非正式语法,并被他们视为有害语言。因此,经过这些标签训练的人工智能毒性检测器会将 AAVE 视为过度有害的语言。.
然而,其他专家并不接受o1中文数据标注的理论。他们强调,在尝试制定解决方案的过程中,o1同样有可能过渡到印地语、泰语或其他非中文语言。.
相反,这些专家认为,o1 和其他推理模型可能正在使用最有效的语言来实现目标。.
为此,人工智能研究员马修·古兹迪亚尔表示: “该模型并不知道语言是什么,也不知道语言之间存在差异。”这是因为词元(类似于标签)有可能引入偏见。
具体来说,许多词到词符的翻译器都假定句子中的空格表示一个新词。然而,并非所有语言都使用空格来分隔单词。.
然而,非营利组织艾伦人工智能研究所的研究科学家卢卡·索尔代尼强调,这无法确定。他指出: “由于这些模型的不透明性,对已部署的人工智能系统进行此类观察无法得到证实。[…] 这只是众多凸显人工智能系统构建透明度重要性的例子之一。”
OpenAI遇到麻烦了
2024年对于OpenAI来说可谓跌宕起伏。年初,该公司及其首席执行官萨姆·奥特曼就被埃隆·马斯克起诉。马斯克认为,OpenAI偏离了最初的非营利宗旨,转而将盈利置于公共利益之上。.
去年,包括《纽约每日新闻》、《芝加哥论坛报》和《丹佛邮报》在内的八家美国报纸起诉了OpenAI和微软。他们指控这两家公司未经许可或支付费用,使用数百万份受版权保护的出版物来训练人工智能聊天机器人。他们声称,这种技术侵犯了他们的知识产权。.
此外,OpenAI首席技术官米拉·穆拉蒂宣布离职。这是一个关键时刻,因为她的技术能力对公司的发展至关重要。.
此外,OpenAI 在 ChatGPT 的开发过程中也遇到了一些困难,例如偶尔的服务中断、导致聊天机器人回复不准确或无意义的故障,以及用户隐私方面的担忧。此外,还出现过人工智能生成带有偏见或冒犯性内容的情况。.

