本文作者:鲍奕龙
来源:硬AI
野村证券指出,DeepSeek即将发布的新一代大模型V4,预计不会像去年的V3一般引发全球AI算力需求的恐慌。但它可能通过两项底层架构创新,加速全球大语言AI应用的商业化进程。
华尔街见闻提及,据报道DeepSeek新一代旗舰模型V4预计将于2026年2月中旬面世。内部初步测试表明,V4在编程能力上超过了目前市场上的其他顶级模型,如Anthropic的Claude和OpenAI的GPT系列。
一个核心问题再次浮现:V4会再次颠覆全球AI价值链吗?野村证券在2月10日发布的《全球AI趋势追踪》报告中给出了明确的判断:不会。
研报指出,这次发布的意义在于V4可能通过创新架构(mHC和Engram技术)进一步降低训练和推理成本,加速中国AI价值链创新周期。
同时有望帮助全球大语言模型和AI应用企业加速商业化进程,从而缓解日益沉重的资本开支压力。
创新技术架构带来性能与成本优化
报告指出,算力芯片和内存一直是中国大模型的瓶颈。而V4有望引入的两项关键技术——mHC和Engram,从算法和工程层面针对这些硬约束优化。
mHC:
- 全称为“流形约束超连接”。它旨在解决Transformer模型在层数极深时,信息流动的瓶颈和训练不稳定的问题。
- 简单说,它让神经网络层之间的“对话”更丰富、更灵活,同时通过严苛的数学“护栏”防止信息被放大或破坏。实验证明,采用mHC的模型在数学推理等任务上表现更优。
(超连接与流形约束超连接)
Engram:
- 一个“条件记忆”模块。它的设计理念是将“记忆”与“计算”解耦。
- 模型中的静态知识(如实体、固定表达)被专门存储在一个稀疏的内存表中,这个表可以放在廉价的DRAM里。当需要推理时,再去快速查找。这释放了昂贵的GPU内存(HBM),让其专注于动态计算。
(Engram架构)
研报指出这两项技术的结合对中国AI发展意义重大。用更稳定的训练流程(mHC)弥补国产芯片可能存在的不足;用更聪明的内存调度(Engram)绕过HBM容量和带宽的限制。
野村强调V4最直接的商业影响就是进一步降低大模型的训练与推理成本,这种成本效益的提升将刺激需求,届时中国AI硬件公司将受益于加速的投资周期。
硬件受益于“加速周期”
野村认为全球主要云服务商正全力追逐通用人工智能,资本开支的竞赛远未停歇。因此V4预计不会对全球AI基础设施市场造成去年那种级别的冲击波。
不过全球大模型及应用开发商正背负着日益沉重的资本开支负担。V4若能如预期般,在维持高性能的同时显著降低训练与推理成本,将成为一剂强心针。
它可能帮助这些玩家更快地将技术转化为收入,缓解盈利压力。
报告回顾了DeepSeek-V3/R1发布一年后的市场格局。
此前DeepSeek的两个模型V3和R1的“算力管理效率”叠加“性能提升”加速了中国LLM与应用发展,也改变了全球与中国大语言模型竞争格局,并推动开源模型更受关注。
![]()
(OpenRouter上排名前15的开源模型每周Token消耗量)
在2024年底,DeepSeek的两个模型曾占据OpenRouter上开源模型Token使用量的一半以上。但到了2025年下半年,随着更多玩家加入,其市场份额已显著下降。
市场从“一家独大”走向了“群雄割据”。这表明,仅凭单一模型的高效,已不足以统治快速演进的开源生态,如今V4面临的竞争环境,远比一年前复杂。
软件或迎来“增值而非被替代”
在应用侧,更强大、更高效的V4将催生更强大的AI智能体。
报告观察到,像阿里通义千问App等,已经能够以更自动化的方式执行多步骤任务。这意味着,AI智能体正从“对话工具”转型为能处理复杂任务的“AI助手”。
这些能执行多任务的智能体,需要更频繁地与底层大模型交互,这将消耗更多的Token,进而推高算力需求。
因此,模型效能的提升不仅不会“杀死软件”,反而为领先的软件公司创造了价值。
野村强调,需要关注那些能率先利用新一代大模型能力,打造出颠覆性AI原生应用或智能体的软件公司。它们的增长天花板可能因模型能力的飞跃而被再次推高。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.