文丨吴新竹 编辑丨李壮
在英伟达先进芯片被限制进入国内的背景下,国产算力芯片企业仍处在发展窗口期。2026年1月28日,海光信息市值突破6000亿元,成为A股算力板块领涨龙头,其DCU产品已在大模型训练场景中初步实现对部分进口产品的替代,标志着国产算力从“可用”迈向“好用”的关键一步。
![]()
英伟达CEO黄仁勋近期开启2026年访华之旅。此前不久,该公司的H200芯片正式获批——在满足美国出口限制条件的情况下向中国出口,这一消息未能对英伟达近期股价产生积极作用,其股价仍处于横盘状态。
对比来看,近期,海光信息(688041.SH)、龙芯中科(688047.SH)和芯原股份(688521.SH)在CPU涨价的预期下股价大幅拉升,截至2026年1月28日,三家公司的市值分别超过6000亿元、600亿元和1000亿元,均达到上市以来的高位。
经过近几年的技术迭代和市场扩张,国产算力产业链龙头已经步入业绩兑现期,部分公司2025年业绩预告实现收入与利润的大幅增长,基本面改善趋势明显。
算力需求激增 CPU供给紧张
据TrendForce研究报告,北美云端服务供应商持续加强对AI(人工智能)基础设施的投资力度,预估将带动2026年全球AI服务器出货量同比增长28%以上,全年服务器整体出货量也将同比增长12.8%,增长幅度较2025年扩大。全球云服务大厂加速人工智能数据中心扩建步伐,不仅驱动了AI芯片及存储芯片的需求暴涨,也使服务器CPU(中央处理器)的需求激增。
随着AI模型推理驱动的AI应用不断扩大,CPU在超大规模和企业级数据中心中发挥越来越重要的作用。招商证券指出,CPU协调数据流量的核心功能不仅推动传统服务器更新,更催生了新的需求,进一步扩大安装基数。
国海证券指出,当GPU(图形处理器)频繁访问DDR(计算机内存的一种主流类型)内存时,CPU的并发请求需求将增加,其对GPU和内存资源管理的要求也将提高。在超节点架构(一种服务器集群)中,CPU与GPU的数量比普遍是1:4或者1:2,未来该比例有望进一步加大。目前,CPU正演变为类似于存储的新短板,补足这一短板将是下阶段算力基础设施建设的重中之重。
![]()
同时,通用AI助理对CPU的算力需求提升。以近期发布的AI工具产品Claude Cowork为例,在大批量处理场景下,CPU动态能耗最高可占总动态能耗的44%。国泰海通证券指出,伴随AI助理的加速落地,CPU需要承担与AI大模型相比更多的工作负荷,CPU的重要性逐步提高,预计需求将加速增长,这种增长不仅是数量的堆叠,更伴随着任务复杂度的剧增。
市场研究机构IDC预测,2025年至2030年间,活跃AI助理的数量、任务执行量及Token(大模型处理文本时的基本单位,通常为单词、子词或符号)的消耗量将分别以139%、524%和3418%的年复合增长率飙升。
在国际企业层面,英特尔在2025年第四季度财报会上透露,CPU正驱动其多种工作负载业务,云厂商明确表示愿意与CPU供应商签署长期协议。不过,英特尔表示其CPU产能受限,将优先满足高端产品线。而在近期的业绩发布会上,台积电表示其3nm先进制程面临产能瓶颈,产品的交付周期被延长。
商启咨询预计,2026年全球CPU市场规模约1412.7亿美元,2025-2030年年化增长率约为8.5%。AMD(超威半导体)预计,人工智能服务器CPU市场将从2025年的约82亿美元增长到2030年的约300亿美元。
在国内厂商方面,国产CPU厂商经过多年的研发积累,产品线日益成熟。其中,海光信息基于x86指令集架构进行芯片研发,打造“CPU+DCU(数据中心处理器)”双产品体系,其CPU产品完全兼容主流x86软硬件生态,客户无需大幅改造现有系统即可完成国产化替代;另一方面,海光DCU对标国际主流通用GPU,兼容CUDA(英伟达推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题),可满足从十亿级模型推理到千亿级模型训练的全场景需求。
龙芯中科的3C6000系列服务器于2025年6月底发布,多家合作伙伴基于3C6000系列芯片研制整机产品,在2025年下半年已形成存储、智算、密码等多处典型应用。该系列服务器芯片可用于构建高性能自主算力底座。
另外,芯原股份针对AI端侧、云侧有丰富的半导体IP和相关技术平台积累。芯原的NPU IP(神经网络处理器IP)覆盖了服务器、汽车、智能手机、可穿戴设备等10多个市场领域,截至目前,相关芯片出货已经近2亿颗。
目前,芯原股份的NPU可以为移动端大语言模型推理提供超过40 TOPS(处理器运算能力单位,每秒万亿次运算),并且已经在手机和平板电脑中量产出货。此外,公司的AI-ISP(人工智能图像信号处理)芯片定制方案也已经在知名厂商的智能手机中量产。在云侧,比如数据中心和服务器领域,芯原的VPU(视频处理器)、NPU和GPGPU IP(通用图形处理单元 IP)都获得了广泛应用。
国产算力芯片经营持续改善
根据弗若斯特沙利文预测,全球GPU市场规模预计在2029年将达到3.61万亿元,其中,中国GPU市场规模在2029年将达到1.36万亿元,在全球市场中的占比预计将从2024年的15.6%提升至2029年的37.8%。
![]()
在最近几年的国产替代进程中,国产算力芯片龙头纷纷走过亏损阶段。比如从扣非归母净利润来看,海光信息于2021年第二季度实现盈利,寒武纪-U于2025年第一季度转盈。摩尔线程-U目前尚未实现盈利,公司预计最早可于2027年实现合并报表盈利。
而且,部分国产算力芯片龙头已经出现业绩兑现的情况。自2024年第三季度以来,寒武纪-U营收规模呈爆发式增长。2025年第一季度至第三季度,公司营收同比增速分别达42.30倍、44.25倍、13.33倍,公司存货变动与业务发展步调协同,2025年第三季度末存货余额为37.29亿元,同比增长2.67倍。
在技术层面,寒武纪-U在云端、边缘端、终端三条产品线的所有智能芯片和智能处理器核以及基础系统软件均构建于自研的MLU(一款专为人工智能应用设计的处理器)指令集基础之上。公司已掌握7nm等先进工艺下开展复杂芯片物理设计的一系列关键技术,已将其成功应用于多款芯片中。寒武纪-U智能芯片和处理器产品可高效支持大模型训练及推理、图像和视频的智能处理、语音识别与合成、自然语言处理以及推荐系统等技术相互协作融合的多模态人工智能任务,可支持目前市场主流开源大模型的训练和推理任务。
2025年10月,寒武纪-U完成定向增发,募集资金净额39.53亿元。据公司披露,募集资金将主要用于面向大模型技术演进对智能芯片的创新需求,拟开展面向大模型的智能处理器技术创新突破,研发覆盖不同类型大模型任务场景的系列化芯片方案;拟建设先进封装技术平台,增强智能算力硬件产品对未来大模型技术发展新需求的适应性;基于公司智能芯片的硬件架构特点,拟研发面向大模型的软件平台,重点面向大模型技术开展相应的优化策略、软件算法以及软件工具的创新研究,构建面向大模型算法开发和应用部署的高效支撑与服务能力,进一步提升公司软件生态的开放性和易用性。
与寒武纪-U业绩扩张、技术迭代类似,摩尔线程-U、龙芯中科、芯原股份等公司业绩也在积极转好,技术进步明显。
据了解,摩尔线程-U预计2025年实现扣非归母净利润为亏损10.40亿元—11.50亿元,亏损幅度收窄为29.59%—36.32%。公司披露,2025年,公司推出旗舰级训推一体全功能GPU智算卡MTT S5000,其性能达到市场领先水平,并已实现规模量产。同时,公司依然保持高研发投入,目前仍处于持续研发投入期,尚未盈利且存在累计未弥补亏损。
龙芯中科预计2025年实现营业收入6.35亿元左右,比上年同期增长26%左右;预计实现扣非归母净利润-5.03亿元左右,与上年同期相比,减亏24%左右。同时,公司毛利率逐步回归到良好水平。公司披露,2025年,公司工控领域业务逐渐恢复带动高质量等级产品出货;信息化领域对外技术授权的新业务毛利贡献较大,且与桌面CPU配套的低成本桥片逐步开始出货。
芯原股份预计2025年度实现营业收入约31.53亿元,较上年同期增长35.81%;预计实现扣非归母净利润约-6.27亿元,亏损收窄比例为2.49%。公司指出,2025年全年新签订单金额59.60亿元,同比增长103.41%,其中AI算力相关订单占比超73%,数据处理领域订单占比超50%。截至2025年末,公司在手订单金额达到50.75亿元,预计一年内转化的比例超80%,且近60%为数据处理应用领域订单。
国产算力龙头加速追赶英伟达
目前,国产算力产业链国产替代趋势依旧。尽管英伟达H200人工智能芯片获准对华销售,但存在条件限制,比如,中国客户获得的H200芯片数量不得超过美国客户购买总量的50%。
同时,H200芯片早已不是英伟达的先进产品,在这款产品之后诞生的新品包括GB200、GB300,以及基于Rubin架构的芯片。2026年1月,黄仁勋发布最新的NVIDIA Rubin 平台,并宣布该平台“已全面投产”。而NVIDIA Rubin 平台由六款全新芯片组成,包括NVIDIA Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX-9 SuperNIC(超级网络接口卡)、BlueField-4 DPU(数据处理单元)与 Spectrum-6 以太网交换机。
银河证券指出,对华供应限制意在固化技术代差,将更先进架构的芯片排除在外,使中国市场无法通过商业途径获取最前沿的工具。因此,依赖外部许可的算力模式在战略上不可持续。相反,国产芯片平台将在与H200同场景服务中获得更充分的迭代反馈与生态培育机会。
事实上,国产算力产业链龙头在技术上持续追赶英伟达。海光DCU已经与国内外主流大模型全面适配,并在AI领域打造出众多标杆产品方案;寒武纪-U深耕AI智能芯片,产品持续放量。
![]()
据寒武纪-U测算,如采用FP4(4位浮点)格式的B200(英伟达2024年产品)进行Llama3.1 70B(一个多语言大型语言模型集合)模型推理,相较于使用FP8(8位浮点)格式的H200,推理吞吐量可提升3倍。训练芯片与推理芯片均需要升级低位宽数据的算力能力,软件平台方面也需针对混合位宽的数据运算开展特性优化。寒武纪-U已经把低位宽数据的算力能力作为训练与推理芯片升级的重要方向,加快构建面向大模型的算力软硬件技术能力矩阵。
另外,衡量推理框架能力的重要指标之一是算子覆盖度,它决定了推理框架能够支持的模型类型和应用场景。海光DCU芯片与英伟达GPU的性能对标,DCU算子覆盖度超99%,兼容CUDA,可满足从十亿级模型推理到千亿级模型训练的全场景需求。
2025年,海光DCU市占率位列国产AI加速芯片头部,深算三号已经投入市场,受到认可。在落地应用方面已覆盖AI训练/推理、科学计算、金融风控等多个核心场景,新一代产品深算四号研发进展顺利。
据了解,海光面向互联网客户,与字节、腾讯、阿里、百度等大厂在技术联合研发、产品采购、生态共建等方面有深度合作。各方均有意深化合作,聚焦大模型训练推理、云计算等核心场景,共同推动国产算力生态的成熟与发展。目前,公司发起的海光光合组织已完成15000余项软硬件测试,在政务、金融、能源等领域的联合解决方案超15000个,形成从芯片到整机到应用的闭环生态。
另外,摩尔线程-U在招股书中强调,相比采用通用GPU、ASIC(应用专用集成电路)等技术路线的其他单一AI加速卡产品,公司所采用的MUSA(元计算统一系统架构)架构技术具备计算通用性、技术演进能力、生态兼容性以及广泛的市场适应性。能够适配AI、科学用AI、大数据处理、数字孪生、图形渲染、高清显示等多样化计算需求。此外,产品兼容全球现有GPU应用生态,集成开发框架与工具链,可大幅降低迁移成本,确保技术应用的连续稳定。
(本文已刊发于1月31日出版的《证券市场周刊》。文中提及个股仅为举例分析,不作投资建议。)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.