![]()
![]()
等了一年多,DeepSeekV4终于来了。
4月24日,DeepSeek正式发布V4预览版,同步开源。
两个版本:V4-Pro,总参数1.6万亿,激活490亿;V4-Flash,总参数2840亿,激活130亿。两个版本都标配100万token的超长上下文。
也就是说,从现在起,你用它家的网页、App或API,默认就能一次性上传一整本《红楼梦》、整个项目的代码库——AI会全部读完,不用你自己拆文件。
![]()
01
核心亮点
这次DeepSeek在技术路线上做了一个关键选择。
百万上下文在2026年4月已不算绝对领先,Gemini、Qwen都到了这个量级。V4真正要回答的不是“能不能做到百万上下文”,而是“做到了之后,成本撑不撑得住”。
V4给出的答案是一套全新的混合注意力架构。
它在token维度引入压缩机制,结合自研的DSA稀疏注意力,处理百万token的算力消耗只有前代V3.2的27%,KV缓存占用只有10%。
注意,这不是“优化了一点点”,而是把同一个任务需要的计算资源直接砍掉了将近四分之三。
Agent能力也被大幅加强。在AgenticCoding评测中,V4-Pro已超过所有开源模型,企业版内部评测反馈,使用体验优于ClaudeSonnet4.5,交付质量接近Opus4.6非思考模式。
世界知识方面,V4-Pro大幅领先其他开源模型,仅次于谷歌的Gemini-Pro-3.1。数学、STEM、竞赛型代码的评测里,超过了所有已知开源模型。
最刺激的部分来了,价格。
V4-Flash版输出价仅为GPT-5.5Pro的1.55‰。数字摆在面前时,给人的冲击力是巨大的——这不是便宜,是便宜到了完全不在同一个量级。
![]()
来源:公开查询/汇总
![]()
02
黄仁勋担心的事,还是发生了
今年4月15日,英伟达CEO黄仁勋在接受DwarkeshPatel播客采访时说了这么一句话:“如果DeepSeek先在华为平台上发布,那对我们国家来说将是灾难性的。”
![]()
仅仅9天后,4月24日,华为同步宣布DeepSeek-V4在昇腾首发。黄仁勋的预言变成了一半的现实。
为什么说一半?因为V4同时在英伟达和华为两套平台上做了适配。但从技术报告来看,DeepSeek的设计之初就优先围绕华为昇腾AI体系做了适配。
定价说明中还有一行灰色小字:受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅下调。
这是国内首个在昇腾平台上原生适配的前沿大模型。寒武纪也完成了Day0适配。一个围绕国产算力的先进模型运行体系正在成型。
黄仁勋担心的不是某个具体模型。他担心的是有一天,全球顶尖的AI模型不再是“默认识别并优先跑在英伟达GPU+CUDA上”。
![]()
如果模型为了在华为芯片上达到最优性能而调整了核心架构,那么英伟达这些年靠CUDA建立的软件生态护城河,就被绕过去了。
这件事的影响正在现实中发生。
美国商务部长卢特尼克在听证会上承认,美国政府放宽H200芯片对华出口后,“一块也没卖出去”,自获批以来对华销量始终为零。中国市场的逻辑变了,曾经英伟达占据中国高端AI芯片市场90%以上份额的时代,结束了。
与此同时,国产GPU与AI芯片厂商的市场份额攀升至41%,年出货量约400万张。HW排名第一,占总量近半。
黄仁勋自己也在4月20日说,中国已经具备相当规模的算力资源,美国芯片出口管制背后的主张“极其愚蠢”,是典型的“失败者心态”。
![]()
03
对全球AI行业意味着什么
DeepSeek从V3到R1到V4,画出了一条陡峭到近乎刺眼的成本下降曲线。
V2训练成本是GPT-4Turbo的1/70,V3是GPT-4的1/14,R1是GPT-4o的1/20。现在V4的API定价,大约是GPT-5.4和ClaudeOpus4.6的1/50。
奥尔特曼自己说过,AI成本每12个月降10倍。即便你把OpenAI背后几十亿美元的算力基础设施都算进去,DeepSeek在单次训练成本上的优势依然是数量级的。
OpenRouter平台的报告显示,2025年中国开源模型已占全球约三分之一的使用份额。DeepSeek在其中领跑。
所以V4意味着什么?意味着大模型这个赛道的竞争规则变了。
以前玩这个游戏的前提是“至少有几亿美金买H100”。现在门槛被拉低了,低到更多玩家可以入场。而且V4是MIT协议完全开源,权重可下载,任何组织只要有足够的硬件就能本地部署。
华为昇腾一天比一天成熟,天数智芯、寒武纪等厂商陆续跟上。
中国正在建立起一条完整的“国产模型+国产算力”闭环。黄仁勋担忧的“两个生态系统”的局面,正在从可能变为现实。
中信证券的判断是有道理的:模型平权会带动整个AI产业链。算力成本降下来→用量升上去→AI应用层加速落地→基础设施层跟着受益。
第一波受益的是模型厂家本身,第二波是AI-nativeSaaS公司。
![]()
04
接下来会怎样?
接下来说几个确定性比较高的事。
第一,AGI竞赛的玩法变了。以前基本靠堆算力,谁手上H100多谁说了算。V4证明了一条新路径,架构创新可以替代相当一部分算力堆叠。
接下来这个赛道会分成两派:一派继续堆参数烧钱走暴力美学路线,一派走效率优先的轻量路线。
第二,国产算力生态会加速成熟。V4是第一个在昇腾上深度适配的前沿大模型,但不会是最后一个。
现在已经看到端倪:DeepSeek绑定HW,腾讯混元在内部生态跑通,阿里通义Qwen也在适配自家芯片。
三条线各自形成闭环的同时还在互相竞争。IDC数据显示国产芯片市场份额已经41%,这个数字在未来一两个季度还会涨。
第三,开源vs闭源的分化会加剧。V4的输出价比GPT-5.5Pro便宜100多倍。这个价差摆在这里,大量开发者会流向哪一边,基本不用猜。
一个基本的商业规律:当性能差距缩小到感知不明显的程度时,成本就成为决定性因素。
DeepSeek证明了开源模型可以靠极致的工程效率跑出顶级性能,而闭源派还在依赖高昂的订阅费和API调用来覆盖训练和营销成本。
接下来两年,这条路线之争可能比芯片层面的竞争更值得关注。
第四,DeepSeek自身的商业模式面临选择。它已经跟资本开始接触,洽谈融资,估值超过200亿美元,腾讯和阿里被传都在入局。
这也透露出一个信号:靠幻方自己填钱,可能撑不起下一阶段的竞赛了。开源意味模型不要钱,算力需要成本。
V4算力消耗比V3少73%,但规模大了之后,总账单不是一个数量级。
它需要在开源理想和商业现实之间,找到一个平衡点。
2026年的竞局这张牌桌上,中国玩家不只DeepSeek一家。
阿里Qwen下载量过10亿,字节跳动2024年一年投了110亿美元搞AI基础设施。
开源模型让全球开发者都有了更便宜的选择,马来西亚去年已公开宣布本国主权AI将建在DeepSeek技术之上。
这种扩散速度,比单纯比拼benchmark分数要可怕得多。
当然,挑战依然存在:高端算力产能不足、部分核心技术仍需突破、国际竞争与地缘政治压力持续加大。
但可以确定的是,中国 AI 已经跨过 “追赶门槛”,站在了全球舞台的中央。
黄仁勋担心的 “灾难性结果”,对美国而言是挑战,对中国而言,却是百年难遇的历史机遇。
声明:本文仅为财经热点分析,观点仅供参考,不构成任何投资或消费建议。
DeepSeek
对DeepSeek最新版本,您怎么看?
期待您在留言区文明理性发布高见,留言点赞最高的朋友,扫码文末投行君微信,可以获得投行圈子精美商务背包一个。
感谢耐心阅读,欢迎顺手点个“在看”
![]()
声明:本平台深耕财经自媒体12年,聚焦资本市场、上市公司和商业、科技最前沿的深度解读,目前全网粉丝超300万,欢迎投稿,如采纳,将支付稿费。引用文章、图片如遇版权问题,请与管理员联系,管理员核实后将及时更正出处、作者、支付一定稿费或进行删除。商务合作、投稿、资源对接,金融同仁入群请扫码添加管理员投行-涤生。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.