据传,DeepSeek V4 在长上下文编码方面将超越 ChatGPT 和 Claude,目标是完成高阶编码任务。业内人士称,如果内部测试结果与 2 月中旬正式发布后的预期表现相符,那么硅谷的人工智能行业应该对此感到担忧。.
据报道,总部位于中国的AI初创公司DeepSeek计划 于2月17日发布其最新的大型语言模型DeepSeek V4。知情人士称,该模型在处理长上下文代码提示和任务时,有望超越现有的大型语言模型,例如OpenAI的ChatGPT和Anthropic的Claude。
开发者们对 DeepSeek V4 的发布充满期待
截至发稿时,这家中国公司尚未公开披露任何关于即将发布的产品信息,也未证实相关传闻。各大社交网络上的开发者都对此次发布表达了高度期待。人工智能开发者、Hyperbolic Labs联合创始人金宇辰 发文 称:“据传DeepSeek V4即将发布,其tron。”
Reddit 子版块 r/DeepSeek 也 热闹 起来,一位用户解释说,他对 DeepSeek 即将推出的 V4 型号的痴迷并不正常。这位用户表示,他经常“查看新闻、各种传闻,甚至会去 DS 官网阅读文档,寻找任何可能预示着更新的迹象或变化。”
DeepSeek此前的产品发布对全球市场产生了重大影响。这家中国人工智能初创公司 发布了 R1推理模型,引发了万亿美元的抛售潮。尽管R1模型的成本远低于OpenAI的01模型,但在数学和推理基准测试中,其性能却与OpenAI的01模型不相上下。
据报道,这家中国公司仅花费了600万美元用于该型号产品的发布。与此同时,全球竞争对手为获得相同产品投入的资金几乎是其70倍。其V3型号在MATH-500基准测试中取得了90.2%的得分,而Claude的得分为78.3%。DeepSeek最近推出的V3升级版(V3.2 Speciale)进一步提升了其生产力。.
V4 模型的卖点已从 V3 模型侧重的纯粹推理、形式化证明和逻辑数学演变而来。新版本预计将采用混合模型,结合推理和非推理任务。该模型旨在填补现有市场空白,满足对高精度和长上下文代码生成的需求,从而赢得开发者市场。.
Claude Opus 4.5 目前在 SWE 基准测试中占据主导地位,准确率达到 80.9%。V4 需要超越这一水平才能反超 Claude Opus 4.5。根据以往的成功经验,即将推出的模型有望突破这一门槛,并在基准测试中占据主导地位。
DeepSeek率先将mHC应用于LLM培训。
DeepSeek 的成功令许多专业人士难以置信。这样一家规模如此小的公司,究竟是如何取得如此里程碑式的成就的?答案或许就隐藏在其 发布的 1 月 1 日dent了一种新的训练方法,能够帮助开发者轻松扩展大型语言模型。DeepSeek 的创始人兼首席执行官梁文峰在论文中写道,公司正在使用流形约束超连接 (mHC) 来训练其人工智能模型。
该高管提议使用 mHC 来解决开发者在训练大型语言模型时遇到的问题。据文峰介绍,mHC 是 Hyper-Connections (HC) 的升级版,HC 是其他 AI 开发者用来训练大型语言模型的框架。他解释说,HC 和其他传统 AI 架构强制所有数据通过单一的狭窄通道传输。而 mHC 则将该通道拓宽为多个通道,从而促进数据和信息的传输,避免训练崩溃。.
Omdia首席分析师苏连杰(Lian Jye Su)对DeepSeek首席执行官文峰公开其研究成果表示赞赏。苏连杰强调,DeepSeek决定公开其训练方法,重振了人们对中国人工智能行业的信心。DeepSeek在 占据主导 地位。微软周四发布的一份报告显示,DeepSeek占据了中国人工智能市场89%的份额,并在发展中国家也获得了强劲的增长势头。

