随着AI大模型训练与推理需求的爆发,GPU等算力芯片的功耗持续突破,比如NVIDIA GH200超级芯片的热设计功耗(TDP)达1000W,传统风冷技术的物理瓶颈逐渐凸显——空气的传热效率远低于液体,无法满足高密度算力集群的温度控制需求。此时,液冷技术成为高功耗AI基础设施的刚需,不仅能解决散热难题,还能助力数据中心实现节能目标。
![]()
液冷技术主要分为冷板式和浸没式两大路线。冷板式液冷通过冷板与设备直接接触,将热量传导至冷却液,适配中低密度算力场景,比如传统云计算数据中心的改造,其优势是改造成本低、落地速度快,可将数据中心电能使用效率(PUE)控制在1.2以下。浸没式液冷则将服务器或芯片直接浸泡在绝缘冷却液中,通过流体对流高效散热,适用于超高密度AI算力集群,比如超算中心、顶级智算中心,PUE可稳定在1.1以内,甚至逼近1.05,是高端算力场景的终极散热方案。两种路线互补共生,冷板式解决普及问题,浸没式打开高端增量。
![]()
液冷产业在2026年进入规模化放量阶段,源于三重核心支撑。第一是算力需求驱动,AI算力的能耗呈指数级增长,GPT-4单次训练耗电量达2.4亿度,服务器功率密度从5-10kW/柜飙升至50kW/柜甚至600kW/柜,风冷无法承载;第二是政策要求,“十四五”规划明确2025年全国数据中心平均PUE降至1.5以下,上海、深圳等城市要求新建智算中心PUE低于1.25且液冷机柜占比不低于50%,液冷是唯一能满足政策红线的方案;第三是技术成熟,国内企业解决了漏液、腐蚀等痛点,比如英维克的液环式真空冷量分配单元(CDU)、华为的TMU双供电架构,液冷系统的初期建设成本已与风冷基本持平,全生命周期性价比反超风冷。
![]()
液冷产业链分为上游核心材料与部件、中游系统设计与集成、下游服务器整机与解决方案。上游是技术核心,冷却液作为液冷系统的血液,此前被3M、索尔维垄断,如今巨化股份突破半导体级氟化液技术,纯度达99.999%以上,通过台积电、Meta认证;川环科技的PTFE材质液冷管路适配英伟达GB300高压系统,单柜管路用量翻倍;强瑞技术的液冷快接头将漏液故障率降低60%,成为英伟达、华为的核心供应商。中游是连接环节,英维克作为全球液冷CDU技术引领者,GB300冷板模组市占率超30%;曙光数创是国内浸没式液冷绝对龙头,2024年市占率达55.7%,承接“东数西算”算力枢纽核心项目。下游是需求端,浪潮信息作为全球液冷服务器龙头,市占率超50%,AI服务器订单中液冷机型占比过半;紫光股份斩获45亿元电信行业液冷大单,自研“云燧”AI芯片与液冷系统完美适配,帮助客户降低15%总拥有成本。
除了数据中心,液冷技术的应用场景正在快速拓展。新能源汽车的高功率电池散热、储能设备的温控、军工领域的高功率设备冷却,都开始采用液冷技术。这些新场景的需求,为液冷产业带来了更广阔的增长空间,也让液冷从数据中心专属走向更多领域。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.