Is the new model from DeepSeek here?

华尔街见闻
2026.02.11 11:18
portai
I'm PortAI, I can summarize articles.

DeepSeek 正灰度测试新一代模型。部分用户打开 App 后收到更新版本的提示,新版本上下文长度从 128K 扩展至 1M,知识库更新至 2025 年 5 月,官方 App 显示或是 V4 正式亮相前的终极灰度版。野村证券报告指出,V4 的核心价值在于通过底层架构创新推动 AI 应用商业化落地,而非颠覆现有 AI 价值链。

DeepSeek 正在推进新版本模型的灰度测试,或是 V4 正式亮相前的终极灰度版。

2 月 11 日,部分用户打开 DeepSeek App 后收到更新版本的提示。APP 更新后(1.7.4),用户可体验到 DeepSeek最新模型。本次升级后,模型上下文长度将从 128K 扩展至 1M,接近提升 10 倍;知识库更新至 2025 年 5 月,多项核心能力获得实质性提升。

作者实测发现,DeepSeek 在问答中称,当前的版本很可能也不是 V4,极有可能是 V3 系列的最终进化形态,或是 V4 正式亮相前的终极灰度版。

野村证券于 2 月 10 日发布报告称,预计 2026 年 2 月中旬推出的 DeepSeek V4 模型,不会重现去年 V3 发布时引发的全球 AI 算力需求恐慌。该行认为,V4 的核心价值在于通过底层架构创新推动 AI 应用商业化落地,而非颠覆现有 AI 价值链。

据测评,新版本在复杂任务处理能力上已对齐 Gemini 3 Pro 及 K2.5 等主流闭源模型。野村进一步指出,V4 预计将引入 mHC 与 Engram 两项创新技术,从算法与工程层面突破算力芯片与内存瓶颈。内部初步测试显示,V4 在编程任务中的表现已超越 Anthropic Claude 及 OpenAI GPT 系列同代模型。

此次发布的关键意义在于进一步压缩训练与推理成本,为全球大语言模型及 AI 应用企业缓解资本开支压力提供可行路径。

创新架构针对硬件瓶颈优化

野村证券报告指出,算力芯片性能与 HBM 内存瓶颈,始终是国产大模型产业绕不开的硬约束。即将发布的 DeepSeek V4 所引入的 mHC(超连接与流形约束超连接)与 Engram 架构,正是从训练与推理两个维度,针对上述短板进行系统级优化。

mHC

  • 全称为 “流形约束超连接”。它旨在解决 Transformer 模型在层数极深时,信息流动的瓶颈和训练不稳定的问题。

  • 简单说,它让神经网络层之间的 “对话” 更丰富、更灵活,同时通过严苛的数学 “护栏” 防止信息被放大或破坏。实验证明,采用 mHC 的模型在数学推理等任务上表现更优。

Engram

  • 一个 “条件记忆” 模块。它的设计理念是将 “记忆” 与 “计算” 解耦。

  • 模型中的静态知识(如实体、固定表达)被专门存储在一个稀疏的内存表中,这个表可以放在廉价的 DRAM 里。当需要推理时,再去快速查找。这释放了昂贵的 GPU 内存(HBM),让其专注于动态计算。

mHC 技术通过改善训练稳定性和收敛效率,在一定程度对冲国产芯片在互联带宽与计算密度上的代际差距;而 Engram 架构则致力于重构内存调度机制,在 HBM 供应受限的背景下,以更高效的存取策略突破显存容量与带宽制约。野村认为,这两项创新共同构成一套面向国产硬件生态的适配方案,具有明确的工程落地价值。

报告进一步指出,V4 发布带来的最直接商业影响,是训练与推理成本的实质性下降。成本端的优化将有效激发下游应用需求,进而催生新一轮 AI 基础设施建设周期。在此过程中,中国 AI 硬件厂商有望受益于需求放量与投资前置带来的双重拉动。

市场格局从"一家独大"转向"群雄割据"

野村报告回顾了 DeepSeek-V3/R1 发布一年后的市场格局变化。在 2024 年底,DeepSeek 的两个模型曾占据 OpenRouter 上开源模型 Token 使用量的一半以上。

但到 2025 年下半年,随着更多玩家加入,其市场份额已显著下降。市场从"一家独大"走向了"群雄割据"。V4 面临的竞争环境远比一年前复杂。DeepSeek 的"算力管理效率"叠加"性能提升"加速了中国大语言模型与应用发展,也改变了全球竞争格局,推动开源模型更受关注。

软件公司迎来价值提升机遇

野村认为,全球主要云服务商正全力追逐通用人工智能,资本开支竞赛远未停歇,因此 V4 预计不会对全球 AI 基础设施市场造成去年那种级别的冲击波。

但全球大模型及应用开发商正背负着日益沉重的资本开支负担。V4 若能在维持高性能的同时显著降低训练与推理成本,将帮助这些企业更快地将技术转化为收入,缓解盈利压力。

在应用侧,更强大、更高效的 V4 将催生更强大的 AI 智能体。报告观察到,像阿里通义千问 App 等已经能够以更自动化的方式执行多步骤任务,AI 智能体正从"对话工具"转型为能处理复杂任务的"AI 助手"。

这些能执行多任务的智能体需要更频繁地与底层大模型交互,将消耗更多 Token,进而推高算力需求。因此模型效能的提升不仅不会"杀死软件",反而为领先的软件公司创造了价值。野村强调,需要关注那些能率先利用新一代大模型能力打造出颠覆性 AI 原生应用或智能体的软件公司。它们的增长天花板可能因模型能力的飞跃而被再次推高。