昨晚的一份业绩预告,让液冷行业迎来“寒冬”。液冷龙头【英维克】一季度利润跌了八成,大跌预期,究竟是为什么?
其实,说白了就是三个原因:一是国内干液冷的厂家一下子冒出来太多,价格战打得凶,毛利率被压得厉害;二是公司为了抢订单拼命扩产、提前备货,费用先砸出去了,但收入还没跟上,利润自然难看;三是回款慢、坏账计提也多。
总的来讲,液冷这个赛道的逻辑没坏,需求端的大方向没问题,但行业从炒预期进入业绩兑现期后,会迎来第一轮残酷的优胜劣汰。烧钱扩张、抢份额的阶段,利润表难免失真;哪家能率先把海外大订单兑现成真金白银的营收和利润,才是下一个阶段的关键。
下面就来吃透【液冷】产业链4大核心部件!
01 产业链全景图
![]()
02 【液冷】简介
液冷,就是用液体代替空气作为散热介质,通过液体与服务器发热部件进行热交换,把热量带走,让服务器维持在安全的工作温度范围内。液冷属于底层温控技术,与之相对的是传统风冷:
![]()
液冷可以按照冷却液和服务器的接触方式,分为间接冷却与直接冷却两大类。间接冷却里最常见的是冷板式液冷,根据冷却液是否发生相变,又可以分为单相冷板和两相冷板。
直接冷却主要包括浸没式和喷淋式,其中浸没式同样按照介质是否相变,分为单相浸没和相变浸没。
据数据显示,当前主流液冷方案中,冷板式占比达到 91%,浸没式占 8%,喷淋式占 1%。
![]()
![]()
液冷在散热效率、能耗成本、空间利用上优势十分突出,相比传统风冷更加高效、节能、经济。
在能耗方面,液冷可以有效降低数据中心 PUE,减少散热系统的电力消耗。以一个 10MW 规模的数据中心为例,如果将 PUE 从 1.5 降至 1.2,每年可节约用电 2628 万千瓦时,按照 0.7 元 / 度的电价计算,每年可节省电费约 1840 万元。
在设备使用寿命上,电子元器件的工作温度每降低 10℃,寿命大约可延长一倍。采用液冷的服务器年均故障率约为 0.5%,远低于风冷的 2%,维修成本可下降 75%。
在空间与综合成本方面,液冷单机柜功率密度可达 50kW 以上,而传统风冷机柜通常不超过 15kW。在提供同等算力的前提下,液冷可节省约 60% 的机房占地面积。
根据 Uptime Institute 研究,采用液冷的数据中心五年总拥有成本(TCO)比风冷低 18%-25%,在高密度算力场景下这一差距会更加明显。
![]()
随着 AIGC 技术快速发展,数据中心正向高密度算力方向升级。主流计算芯片功耗持续攀升,单位面积产生的热量已接近风冷散热的极限。若继续沿用风冷方案,极易出现芯片局部过热问题,提升硬件失效风险,液冷因此成为下一代数据中心的核心技术方向。
数据中心制冷技术逐渐向液冷发展
![]()
03 核心价值量拆解
目前,冷板式液冷凭借对现有数据中心良好的兼容性和较低的改造成本,在液冷市场占据主导地位。
相比之下,浸没式液冷改造成本高昂、运维复杂,规模化推广仍受较大限制;喷淋式液冷则技术成熟度较低,实际落地案例有限。
展望未来,随着冷却液成本下降和技术体系成熟,散热优势显著的浸没式液冷,有望在高算力场景中成为主流方向。其中,相变浸没式液冷凭借更高的散热效率,或将成为液冷技术的终极演进路径。
在冷板式液冷的产业链中,上游核心高价值环节集中在四大部件:冷板、CDU(冷却液分配单元)、Manifold(歧管)和快接头(UQD)。
以英伟达 GB300 液冷机柜为例,冷板价值占比 41%,CDU 占比 32%,UQD 占比 14%,Manifold 占比 13%,这四项是产业链价值量最高的零部件。
![]()
这四大核心部件的平均毛利率在 25%-30% 以上,其中 CDU 和快接头这类技术壁垒更高的环节,毛利率可达 40%-60%。
![]()
有兴趣可进入星球,获取更多资料
04 上游核心-液冷板
液冷板,是冷板式液冷系统里直接干活的核心部件。它直接贴在 GPU、CPU 这类高功耗芯片的表面,靠内部循环的冷却液,把芯片产生的热量直接高效地带走,散热效率远高于传统风冷。
液冷板的材料选择,直接决定了它的导热性能、重量、成本和加工难度,是上游环节的关键变量。位置处于如图:
![]()
04-1、市场规模
全球冷板式液冷市场正处于高速增长期,未来十年的扩张势头非常明确。
2024 年,市场规模约 20 亿美元;预计到 2034 年,规模将达到 250 亿美元,十年间增长超过 10 倍。
这意味着,冷板式液冷技术将在数据中心、高性能计算、新能源等领域快速普及,市场需求持续走高,行业整体处于高速发展阶段,增长潜力强劲。
![]()
04-2、材料对比
液冷板现在主要用三种材料:铝、铜和新型复合材料。
铝的优势是轻、便宜、还不容易生锈,所以用得最多。
铜导热能力比铝强得多,但又贵又重,只在散热要求特别高的高功率芯片上用。
但现在问题来了:芯片功耗越来越夸张,从现在的 1400W,很快就要冲到 2000W-4000W。就算是纯铜冷板,也扛不住这么大的热量,会出现中心区域 “热量堆死” 的情况。这种问题,光靠把冷却液流速加快,是解决不了的。
所以行业的出路,就是往复合材料升级。把金刚石、石墨烯、碳化硅这些导热超强的材料,嵌进铜或铝里,做出导热能力更强的复合冷板,来应对未来超高功耗芯片的散热压力。
比如双鸿科技,就计划 2026 年先商用石墨烯铜,之后再推广金刚石铜 / 铝这类更高端的材料。
![]()
04-3、技术发展新方向
MLCP(微通道水冷板)是冷板的升级技术,它把传统芯片上的金属盖和液冷板整合成了一个单元,冷却液可以直接流到芯片表面散热。
传统冷板式液冷的传热,像过关卡一样,层层受阻。热量从芯片出来,要穿过硅衬底、金属互连、多层导热材料(TIM)、封装盖板,最后才到冷板,经过至少 4-5 层界面。每一层都会阻碍热量传递,导致热量堆积,形成局部热点,这也是限制芯片输出功率的核心瓶颈。
MLCP 方案则是直接打通了 “任督二脉”。它取消了独立的散热盖和第二层导热材料(TIM2),将路径从 “四站式” 精简为 “三站式”。热量只需经过第一层导热材料(TIM1),直接进入集成微通道的盖板(MCL)被冷却液带走。这种设计从根源上消除了约 50% 以上的接触热阻,散热效率实现质的飞跃。
![]()
MLCP它的核心优势有两点:
![]()
这种高性能冷板的单价是传统冷板的 3-5 倍,毛利率也更高。以英伟达 GB300 机柜为例,一个机柜需要 108+18 块 MLCP,单块报价约 800-900 美元。
和它类似的还有微软的微流体冷却技术,把冷却液通过发丝般细的微通道直接送到芯片内部,散热效率是现有方案的 3 倍,能把芯片温升降低 65%。
![]()
04-4、竞争格局
液冷板市场参与者众多,目前主要由台系企业(奇鋐、双鸿、酷冷至尊)和欧美厂商(CoolIT Systems、Boyd Corporation)主导。
大陆的液冷板配套厂商,主要包括英维克、飞荣达、科创新源、中石科技、川环科技、同飞股份、思泉新材、立敏达等。
05 上游核心-CDU
CDU 是液冷数据中心的核心组件,相当于液冷系统的 “心脏” 和 “控制中枢”。它的核心任务,是把冷却液安全、高效地分配到每个冷板和机柜,同时实现温度控制、流量管理和系统保护。
CDU 内部,液冷泵组和换热器是两大关键部件:
泵组是系统的动力源,驱动冷却液在服务器侧的环路里循环流动。
换热器则负责把冷却液从服务器吸收的热量,传递给机房侧的冷却水,完成热量的 “接力” 与排出。
![]()
按照部署方式,CDU可以分为集中式和分布式,区别特点如下:
![]()
![]()
05-1、市场规模
根据 QYResearch 数据,2024 年全球数据中心 CDU 市场规模约为 9.7 亿美元,预计 2025 年将增至 13.37 亿美元,同比增长 37%;到 2031 年市场规模将达到 37 亿美元,2025-2031 年的年均复合增长率(CAGR)为 18.5%,整体呈现高速增长态势。
![]()
05-2、竞争格局
液冷 CDU 市场目前呈现出高度集中的头部主导格局。
2025 年,维谛(Vertiv)占据最大市场份额,领先优势明显;CoolIT 紧随其后,竞争力强劲;台达和艾美达也占有一定份额,分别代表了传统电源厂商与专业液冷解决方案提供商的布局。
其余企业合计占比较小,说明头部厂商凭借技术积累和客户资源形成了较高的行业壁垒。整体来看,液冷 CDU 市场正朝着专业化、规模化方向发展,头部企业的先发优势十分显著。
![]()
05-3、国内的格局如下:
![]()
06 上游核心-快接头(UQD)
UQD 快速接头,就是液冷系统里的 “快插水管接头”,专门用来接管路和冷板、歧管和机柜,一插就能连上,还能保证冷却液快速、安全地流过去,不会漏。
![]()
它是英特尔主导的 OCP 标准里的核心部件,目标就是给液冷系统提供通用、不漏水的快速连接方案。
现在 AI 算力需求越来越大,GPU 功耗从 700W 直接干到 1000W 以上,传统风冷根本压不住温度,液冷成了刚需,而 UQD 就是液冷里的关键一环,现在已经是数据中心热管理的核心技术之一了。
![]()
06-1、分类
UQD 系列含 UQD02 至 UQD08 四种标准型号,公称直径和流量随编号递增,分别适配低功耗基础液冷、数据中心服务器、高密度计算及大功率 GPU 集群与超算等高散热场景,全系列均遵循 OCP 标准以保证互操作性,并提供 ORB 螺纹、BSPP 螺纹及推入式软管连接等多种终端方案。
![]()
06-2、价值量
随着数据中心机柜功率升级,液冷散热模组对 UQD 的需求同步增长。以英伟达 GB200 NVL72 为例,其单台液冷机柜含 18 个计算托盘,每托盘配 6 对 UQD,单机柜总计 108 对计算单元用 UQD。
GB300 因机柜功率提升,全链路散热升级:GPU 冷板从 “双卡共用” 改为 “单卡独配”,单托盘冷板数量翻倍,UQD 用量同步升至每托盘 14 对,单机柜 18 个托盘对应 252 对 UQD。
测算显示,机柜方案升级后,单机柜 UQD 价值量达 7.7 万元,同比增幅 30%。
![]()
06-3、发展趋势--盲插式UQD
盲插式 UQD 无需精准对准即可自动连接,容错率更高且操作高效,适合空间紧凑、追求便捷的液冷场景;非盲插式 UQD 需精确对接,结构更简单但依赖操作技能。
![]()
盲插式 UQD 无需人工干预,运维效率高、人为失误少,适配高密度数据中心,可靠性更强;非盲插式需手动操作,对技术要求高,更适合成本敏感或低技术要求场景。随着数据中心向智能化演进,以及 AI 对运维连续性的要求提升,盲插式 UQD 将成为主流选择。
06-4、市场格局
UQD 液冷连接器市场目前由海外厂商主导,行业集中度较高,Staubli、Parker 等头部企业凭借先发技术优势占据全球及国内高端市场;国内厂商中航光电、英维克等起步晚但发展迅速,正依托国内需求红利快速追赶。
![]()
07 上游核心-歧管(Manifold)
Manifold(歧管)就是数据中心液冷系统里的 “总分流管”,功能类似把一根水管分成多路喷头的分配器,能把 CDU 送来的冷却液精准分到每个服务器的冷板,靠精密流道设计减少压力损失,让每个支路流量均匀,避免服务器局部过热。
![]()
07-1、制造工艺流程
Manifold 的制造门槛极高,涉及高精度加工、焊接和密封工艺,其性能直接决定液冷系统的散热、能耗、可靠性和维护成本,核心指标看内部流道粗糙度和接口平面度。
内部流道越光滑(Ra 值越低),流体阻力和能耗越小,否则易积垢堵塞;接口平面度越高,连接密封越可靠,可避免泄漏风险。选材与加工工艺是核心壁垒,通常采用不锈钢、铜合金等材料,经钻孔、深孔加工、焊接钎焊等多道工序,每一步都直接影响最终产品的性能与寿命。
![]()
07-2、市场格局
当前,市场竞争激烈,平均毛利率 30%—35%,其中定制化歧管毛利率超 35%,标准化产品约 30%。
国际供应商以双鸿、奇、台达电子等台湾厂商为主,大陆则有领益智造旗下立敏达,以及英维克、申菱环境、同飞股份等核心厂商。
![]()
下方扫码直接加入:
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.