4月25日晚,DeepSeek突然宣布V4-Pro模型API限时2.5折。第二天,V4-Flash调用量暴涨62.2%。
而就在降价前,这家公司已经沉默了15个月——期间OpenAI连推三代模型,字节豆包月活冲到3.31亿,DeepSeek至少5名核心研发成员被挖走。没人知道它去了哪,直到V4从地平线归来。
![]()
这次回归最狠的一招,不是价格
价格确实够狠。V4-Flash每百万tokens输入缓存命中压到0.02元,V4-Pro仅0.025元。但真正的杀招藏在架构底层:V4完成了对华为昇腾芯片的全面适配,底层代码全面迁移至华为CANN生态。
这不是简单的"国产化替代"。从英伟达CUDA生态切到华为CANN,相当于把整个技术栈推倒重来。一位业内人士形容这是国产AI的"探月工程"——需要DeepSeek、华为、半导体设备厂商整条链条咬合运转。
为什么赌这么大?因为2026年的AI行业,正在上演一场教科书级的杰文斯悖论。
成本暴跌280倍,支出反而暴涨2.4倍
1865年,经济学家威廉·杰文斯发现:蒸汽机效率越高,英国煤炭消耗总量反而越大。160年后,同样的剧情在AI算力上重演。
清华大学《Token经济学全景报告》显示:过去三年模型推理成本下降280倍,但企业AI总支出增长2.4倍。36氪调查也证实:AI推理成本18个月内跌超80%,中国三大云厂商却在同一周宣布涨价。
越便宜,烧得越凶。这是行业的结构性宿命。
最先被击中的,是硅谷标杆Anthropic。2026年仅推理成本预计达141亿美元,比2025年增长68%。CEO Dario Amodei在播客里放话:"如果收入达不到1万亿美元……一旦买了那么多算力,地球上没有任何力量能阻止我破产。"
更讽刺的是"降智涨价"。3月初,Claude Opus 4.6编程能力断崖式滑坡,推理深度崩塌67%,排名从前2跌至第7,Token消耗反而增加。官方解释是"自适应思考模式优化",业界心知肚明:算力告急了。
Amodei此前透露,公司年底需要超5GW算力,但因采购保守,现在"不得不接受更高价格"。同期OpenAI同样焦头烂额——GPU租赁价格60天内暴涨48%,Blackwell芯片全面告急,美国近半数计划中的AI数据中心因电网瓶颈延期,形成7GW算力缺口。
但这种"短缺"本质是『贵族的饥饿』:硅谷仍掌握全球最大算力池,只是填不满它们AGI野心的胃口。
V4的窗口期:趁你病,要你命?
硅谷巨头算力高攀不下,DeepSeek从成本结构发起"突袭"。V4在Agentic Coding评测中达到开源模型最佳水平,世界知识、推理、Agent能力均实现国内与开源领域领先,接近Claude-Opus-4.6等顶尖模型。
但笔者与技术社区开发者交流后发现,价格优势未必能直接转化为市场份额。
核心痛点在于:编程工具只有最优,没有次优。一位一线开发者反馈,用Opus或Codex能一遍过,成本1美元;某些国产模型虽便宜,但多轮出错后反而更贵。在AI coding领域,第一名赢家通吃。
V4的真正价值,或许不在于立刻抢占开发者,而在于证明一件事:国产算力链路能跑通。
三重架构突破,把百万上下文变成基础设施
V4的技术底牌,是三重关键突破:
第一,首创CSA+HCA混合注意力机制。双重压缩把长上下文计算量降低73%,显存占用减少90%。百万上下文不再是昂贵附加功能,而是默认基础设施。
第二,引入mHC流形约束超连接。以不到7%的微小开销,解决超深网络的信号衰减难题。
第三,全面切换至Muon优化器。训练效率和收敛稳定性实现代际跃升。
这些突破让V4在性能上不负众望,但更重要的是为国产算力适配铺平了道路。把底层代码迁到华为CANN,意味着DeepSeek主动放弃英伟达生态的舒适区,去啃硬骨头。
这不是技术浪漫主义的冲动。当硅谷巨头被算力成本逼到墙角,当"贵族的饥饿"成为行业常态,谁能率先摆脱对单一算力供应商的依赖,谁就能在下一轮博弈中掌握主动权。
15个月的沉默,一场有预谋的撤退与反击
回顾DeepSeek的"消失"轨迹,会发现这15个月并非停滞,而是一次战略收缩。
2025年1月R1爆红后,DeepSeek选择隐匿。外界只能通过论文推测进度,核心成员却持续流失:第一代大模型核心作者王炳宣去了腾讯,V3核心贡献者罗福莉被雷军千万年薪挖走,R1核心作者郭达雅转投字节,多模态核心研究员阮翀加盟元戎启行。
同期竞争对手狂飙:OpenAI连推GPT-4.5、GPT-5及多个推理变体,Anthropic迭代三代Claude,字节豆包月活冲至3.31亿,智谱、MiniMax陆续发布GLM-5和MiniMax-2.7。
DeepSeek在全球大模型竞赛中"隐匿了一个代际"。但V4的归来证明,这家公司没死,只是在憋大招。
大招的核心,是押注国产算力全链路。从芯片到框架到模型,打通任督二脉。这不是DeepSeek一家的赌局,是整个国产大模型业界的命运豪赌。
为什么这件事值得所有从业者关注
DeepSeek V4的发布,释放了一个关键信号:国产AI的技术栈正在形成闭环。
过去,中国大模型厂商普遍依赖英伟达芯片+CUDA生态,在算力成本上被人卡脖子。现在,DeepSeek证明了一条替代路径的可行性——虽然艰难,但走得通。
这并不意味着V4能立刻颠覆市场格局。开发者社区的反馈很诚实:工具选择看效果,不看情怀。但V4的存在,为行业提供了一个Plan B,一个当英伟达供应受限、价格暴涨时的逃生舱。
更深层的意义在于:当杰文斯悖论吞噬全球AI企业的利润,当算力成本成为悬在所有人头顶的达摩克利斯之剑,成本结构的差异化将成为生死线。DeepSeek提前布局国产算力,是在为下一轮价格战储备弹药。
硅谷巨头的"贵族饥饿"不会持续太久。电网瓶颈会缓解,数据中心会建成,Blackwell的产能会爬坡。DeepSeek的窗口期有限,但足够关键。
V4不需要永远最强。它只需要证明:这条路走得通。而证明本身,就是最大的价值。
如果你是开发者,现在该做什么?去申请V4的API试用,跑一遍你的核心场景。别问它能不能替代Opus,问它能不能在你的业务里跑通成本账。如果答案是肯定的,你的供应链就多了一层安全垫。如果是否定的,你也获得了评估国产算力成熟度的第一手数据。
窗口期不等人。测试,记录,反馈。这比任何 pundit 的分析都管用。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.