硅谷曾是世界顶尖人工智能专家进行创新研究的聚集地,但专家警告说,情况已经发生了变化,如今人工智能的重心已转移到产品本身。人工智能研究人员和专家还认为,自 OpenAI 在 2022 年底发布 ChatGPT 以来,科技行业已将商业化置于研究之上,致力于开发面向消费者的 AI 产品。.
摩根士丹利的分析师 预测,人工智能行业到2028年年收入有望达到1万亿美元。业内专家表示,随着领先企业竞相发展通用人工智能(AGI),他们对安全性感到担忧。
人工智能研究回归盈利,硅谷将产品置于安全之上
杰弗里·辛顿表示,人工智能公司应该被强制将三分之一的计算资源用于安全研究,因为人工智能将在未来20年内变得比我们更聪明,我们需要开始担心届时会发生什么。pic.twitter.com/ocT3Scmyxg
- Tsarathustra (@tsarnick) 2024 年 10 月 25 日
OpenAI成立于2015年,最初是一家非营利性研究实验室,据其首席执行官Sam Altman称,该公司目前正努力转型为一家营利性实体。OpenAI前负责人Jan Leike去年辞职,他带领的团队专注于人工智能安全。Leike表示,过去几年里, “安全文化和流程被置于次要地位,而光鲜亮丽的产品才是重点”。
网络安全初创公司Calypso的首席技术官詹姆斯·怀特认为,科技公司在向公众发布人工智能模型之前,越来越多地走捷径,没有进行严格的测试。他指出,新型人工智能模型为了追求质量(即人工智能聊天机器人更好的响应速度)而牺牲了安全性。.
“模型越来越好,但它们也更容易做出坏事。更容易诱骗它们去做坏事。”
——詹姆斯·怀特,Calypso首席技术官。.
今年三月,谷歌似乎将产品置于安全之上, 发布了其最新的人工智能模型 Gemini 2.5,并声称这是该公司迄今为止最智能的人工智能模型。然而,该公司在发布后的数周内都没有公布 Gemini 2.5 的模型卡,这意味着它没有分享关于该人工智能模型的工作原理、局限性以及潜在危险的信息。
该公司 承认“发布之前”字样
该公司于 4 月 16 日发布了一份不完整的模型卡,并在人工智能模型发布一个多月后的 4 月 28 日对其进行了更新,以纳入有关 Gemini2.5 危险能力评估的信息。.
人工智能技术公司正从研究转向产生收入的产品。
公司dentJoelle Pineau 宣布将于5月30日离职时,他们并不感到意外。他们提到,他们认为这巩固了公司从人工智能研究转向优先开发实用产品的趋势。
自 2023 年以来,皮诺一直领导着 FAIR 项目。据Meta,小型研究团队可能会致力于各种前沿技术的研究,但这些技术最终能否成功尚无定论。这一转变始于这家科技公司在 2022 年底裁员 21,000 人,约占其员工总数的四分之一。熟悉此事的前员工表示,作为成本削减措施的一部分,FAIR 的研究人员被要求与产品团队更紧密地合作。
两位知情人士透露,今年早些时候,FAIR 的一位董事 Kim Hazelwood 因 Meta 公司裁员 5% 的计划而离职。他们指出,OpenAI 发布 ChatGPT 后,Meta 公司意识到必须加大对大型语言模型 (LLM) 的投入,这促使他们加快研发步伐。.
知情人士还透露,Meta首席产品官克里斯·考克斯(Chris Cox)一直在负责FAIR项目,旨在弥合研究部门与以产品为中心的GenAI团队之间的差距。他们补充说,由于FAIR在公司内部地位的提升,考克斯领导下的GenAI团队一直在从FAIR分流更多的计算机资源和团队成员。.
上个月,Meta 发布了面向开发者的安全工具,用于构建基于其Llama 4人工智能模型的应用程序。Meta表示,这些工具有助于降低Llama 4意外泄露敏感信息或生成有害内容的风险。
