![]()
突发重大利好!
市场望眼欲穿的DeepSeek模型V4的预览版本,今天终于正式上线,并同步开源。
DeepSeek-V4拥有百万字超长上下文,在Agent能力、世界知识和推理性能上,均实现大幅度提升,再一次在开源模型上站到了业界C位。
这推动自主可控芯片板块应声大涨,大量资金涌入中芯国际、海光信息、寒武纪、摩尔线程、华虹公司等个股。
DeepSeek-V4这代版本,让市场等得太久了。
上一代,DeepSeek-V3,还是2024年12月26日发布的,离现在已经有整整484天了。
也就是1年3个月29天。
要知道,大模型发展日新月异,竞争异常激烈,很多顶尖模型每2-3个月就更新一个版本。
DeepSeek这次更新,为什么花了这么久呢?
主要有两个原因:第一是目标定的高,第二是芯片国产化的大迁徙。
先说目标。
当初的V3,是个很精简的小模型,总参数只有671B(6710亿),预训练数据14.8T token,上下文128k。
我们看这一次发的V4‑Pro(旗舰版),总参数提升到了1.6T(16000亿),是V3的2.38倍;
预训练数据32T~33T token,约V3的2.2倍,上下文1M(100万)token,约V3的7.8倍。
这就像是一辆经济型代步车,升级成跑车,还是自研发动机的那种。
这可不是简单的“放大”尺寸,必须是整个底层架构都要重新设计。
它们之间,需要用到的技术、材料、工艺,完全不是一回事,自然就需要花大量的时间去重新设计。
再说第二个芯片国产化的迁徙。
当下我国的大模型训练,有一个说一个,主力芯片全都是用的英伟达。
而DeepSeek,是第一个,下决心完全抛弃海外芯片,只用国产货的企业。
众说周知,英伟达的CUDA生态经过20年的发展,已经相当成熟了。
转向用国产芯片,底层代码又要全部重写一遍去适配,还要去解决芯片不成熟带来的各种bug导致的崩溃。
这就相当于把一辆汽油车改成电动车,还要保证续航和速度不变,这工程量是大到难以想象的。
由于国产算力的不足,为了提升模型竞争力,DeepSeek不得不搞出大量的本土化创新。
比如上FP8全链路训练,这东西就像国产模型当初搞出的MOE专家模型一样,属于在算力受限情况下,为提升竞争力而进行的创新。
但用海外芯片的,都不需要搞这么复杂。
于是就相当于别人开着成熟的生产线造零件,它非要自己研发生产线,还要保证零件精度,光调试代码、校准精度,就耗掉了两个多月。
就这样,好事多磨,花了比别人多几倍的时间去更新版本。
不过,好饭不怕晚,如今终于端上来了。
我们看看,这个版本有哪些亮点:
1,百万字超长上下文。
跟OpenAI GPT‑5.4、Google Gemini 3.1 Pro、Anthropic Claude Opus 4.6、通义千问 Qwen 3.5 Plus等大厂处于同一水平。
而遥遥领先于kimi、智谱、minimax等国产创企的模型,后者的长度通常在200k左右。
这个能力在法律文书审核、金融财报分析、科研文献研读、多轮智能对话等专业场景中非常重要。
2,Agent能力领跑国内开源。
相较于普通大模型只能被动响应指令,DeepSeek-V4具备完整的自主规划、工具调用、多智能体协同、复杂任务拆解闭环能力。
无需人工过多干预,就能独立完成代码全流程开发、办公自动化全流程处理、行业解决方案定制、复杂数据推演等高阶任务。
这意味着,V4真正从“工具型AI”升级为“协作型AI”,在国内开源模型中一骑绝尘。
3,推理与知识性能登顶。
在MMLU、GSM8K、C-Eval等全球权威AI模型评测基准中,DeepSeek-V4的通识知识准确率、数学逻辑推理、代码编写、中文语义理解能力,均位列国内开源模型首位。
核心指标媲美国际顶尖闭源模型,且针对中文语境、本土行业规则做了深度优化,落地实用性远超海外通用模型。
DeepSeek-V4终于又一次站回到了行业C位,实在是可喜可贺!
但更重要的是,DeepSeek-V4全程采用去美化研发路线,模型训练、推理优化、生态适配全流程,均基于华为昇腾、寒武纪、海光信息等国产AI芯片完成。
完全不依赖任何海外芯片架构、软件工具与编译生态,真正实现“中国模型、中国算力、中国生态”的全链路自主可控。
这意味着,国产算力完全有能力支撑世界顶级大模型的全流程运作。
海外芯片,终于可以被国内AI产业抛弃了。
这无疑是给国产自主可控产业链打了一剂强心针。
回到A股,DeepSeek-V4直接利好的,主要是芯片制造和AI芯片两大环节。
相对来说,AI芯片的业绩增速,明显要强于芯片制造。
对比一季度数据:
中芯国际:2025年营收+16.49%,净利润+36.29%;
华虹公司:2025年营收+20.18%,净利润-1.04%.
海光信息:2026年Q1营收+68.06%,净利润+35.82%;
寒武纪:2025年营收+453.21%,净利润+555.24%;
摩尔线程:2025年Q3营收+181.99%,净利润+18.71%;
沐曦股份:2025年营收+121.26%,净利润+43.97%;
很明显,从营收增速来看,AI芯片环节的四大龙头跑的快很多。
净利润增速上,除了寒武纪已经进入规模化拐点,迎来业绩大爆发以外,其它几家行业竞争力较弱,利润增速落后于营收增速。
值得注意的是,今天股价表现最出色的,是华虹公司和海光信息。
主要是美股传导效应的影响。
昨晚,全球模拟芯片巨头德州仪器,发布了超预期的一季报和第二季度指引,隔夜股价大涨19.43%,创2000年10月以来最大单日涨幅。
德州仪器是全球模拟芯片龙头,市占率约19%-20%,过去几年被中国企业发起的价格战打得节节败退,股价自2021年之后都没有涨过。
因此,市场对德州仪器的预期是很低的。
但最新一季度财报,公司营收同比增长19%,净利润同比增长31%,大幅超出市场预期。
且受益于芯片涨价潮,公司今年一季度也开始提价了,带来利润率的上扬,净利润率从28.28%提升到32.02%。
华虹公司主营成熟芯片和模拟芯片代工,是德州仪器的最直接传导标的。
另外,昨晚英特尔也发布了一季报,盘后股价大涨近20%,创下近年单日最大涨幅。
财报显示,英特尔一季度营收同比增长7%,剔除股权薪酬、重组费用等非经常性损益后,非GAAP净利润15亿美元,同比大增156%。
英特尔这番业绩大爆发,一方面跟新CEO陈立武的铁血改革有很大关系,他通过大规模裁员、剥离非核心资产,让公司得以止血。
另一方面,也跟AI行业从“训练”转向“推理”的风口变化有关。
由于AI 推理、智能体(Agent)的爆发,相关需求更吃CPU,让英特尔的服务器芯片(至强CPU)营收大幅增长了40%,并提价10–15%。
海光信息主营通用CPU和GPU芯片,是英特尔的最直接传导标的。
我们来看看近几年的中国AI芯片行业变化。
根据伯恩斯坦(Bernstein)的报告,2023年中国AI芯片市场规模约780亿元,英伟达份额约95%,国产芯片只有可怜的5%。
而到了去年,2025年,这一市场的规模大幅增长至1530–1780亿元。
AI芯片总出货约401.6万张,其中英伟达220万张,份额下降至55%。
国产出货约165万张,提升至45%。
其中——
华为昇腾:81.2万张,占国产49%,断层第一;
阿里平头哥:26.5万张,占国产16%,排名第二;
百度昆仑芯:11.6万张,占国产7%,排名第三;
寒武纪:11.6万张,占国产7%,排名第四;
海光信息(DCU):约8.3万张,占国产5%,排名第五;
摩尔、沐曦、天数、壁仞:合计约25万张,占国产15%,平均每家4%左右。
这里面,阿里平头哥和百度昆仑芯,都是自用为主的专用芯片,类似谷歌的路线。
华为昇腾和寒武纪,在独立第三方的市场中,相对领先,类似于英伟达和AMD的地位。
海光信息,更偏重CPU业务,类似于英特尔。
摩尔、沐曦、天数、壁仞这些创企,当下市场份额较小,竞争力较弱,未来的不确定性还是比较大的。
我们重点分析一下华为和寒武纪。
华为毫无疑问是国产AI芯片的实力最强者,占据了行业一半的份额,且研发实力领先,自研达芬奇架构、拥有CANN软件栈(对标CUDA)。
一来是钱多、投入多,二来是产业生态搭建的早,目前已拥有开发者80万,远超过寒武纪的10万。
三来是在利润率最高的政企市场上,拥有垄断地位,市场份额在60%-70%左右。
四是产能稳定,由于在自主制造、先进制程研发中投入了大量资源,像中芯国际的N+2/N+3产线,会优先服务、配套华为的需求。
这让华为的芯片产能得以稳定增长,2024年产量50.7万张,2025年80.5万张。
今年预计产能不会大幅增长,维持在80-85万张左右,但主力产品将从910C切换向950PR(推理)、950DT(训练),这两款芯片配套了自研的HBM存储芯片,性能大幅提升。
明年,2027年,预计随着新一代国产先进光刻机的量产,中芯国际的先进节点产能将大幅提升,推动华为AI芯片出货量提升至110-120万张。
说白了,华为昇腾的核心竞争力,靠的是 “全栈生态 + 政企垄断 + 产能稳定”,强者通吃效应下,未来市场份额预计提升至80%。
华为昇腾生态标的:
拓维信息(政企运营)、软通动力(软件外包)、神州数码(分销)、中芯国际(代工)、兴森科技(PCB配套)
寒武纪,即没有华为的强大生态,也没有阿里、百度的大厂资源,能够突围而出。
肯定是有两把刷子的。
寒武纪最大的竞争力是什么呢?
差异化的技术路线。
根据业内报告,寒武纪的技术有以下特点:
1,自研MLU架构(思元系列)。
国内唯一全栈指令集 + 微架构自主,思元590支持50B参数模型推理,能效比是主流GPU的2倍。
2,Chiplet技术(思元370)。
双芯粒封装,LPDDR5内存带宽3倍于上代,访存能效达GDDR6的1.5倍,成本比华为低30%+。
3,稀疏计算硬件加速。
跳过零值运算,推理能效提升40%,适配DeepSeek等稀疏化大模型,互联网推理场景优势明显。
4,MagicMind推理引擎。
基于MLIR图编译,训推一体、开发成本低,适配主流框架,推理性能接近 CUDA。
这里面,最核心的就是基于互联网创企的需求进行优化,推出了稀疏计算硬件加速等独特技术。
而且,不做云、服务器、终端,不与阿里 、腾讯、字节等大厂业务竞争,自然更获互联网巨头信任。
另外就是价格优势,思元590价格为昇腾910B的60%,性价比还是可以的。
从市占率来看,寒武纪在2025年国内AI芯片市场的份额约5%–7%,云端推理12%–15%,互联网推理20%+。
在互联网行业的市场份额,与华为相比,明显差距最小。
据业内传言,2025年字节跳动采购了20多万张订单,用于推理集群,是其最大客户;
由于针对长文本推理做了专项优化,性价比出色,DeepSeek、MiniMax等互联网创企也会选择寒武纪的芯片。
过去十几年,国产AI芯片产业崛起,最大的阻力从来不是单颗芯片的性能,而是软件生态的垄断。
英伟达CUDA生态历经近二十年深耕,和全球开发者进行了深度绑定,成为其最深的护城河,也是国产芯片最难突破的壁垒。
现在,随着DeepSeek V4模型全面适配国产AI芯片,并成功站上来源大模型的C位,以后肯定会有越来越多的国产大模型追随着走上这条路。
这意味着英伟达芯片生态的霸权,正在一步步被瓦解。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.