返回顶部
返回首页 会员充值 我的足迹 返回上一页
首页 > 资讯 > 计算机行业:液冷行业快速发展国产供应链迎黄金替代期-260318
计算机行业:液冷行业快速发展国产供应链迎黄金替代期-260318
2026-04-19 02:08:59
202

1.液冷行业:算力散热范式重构

1.1.AIGC与算力需求爆发,驱动散热体系重构与液冷全面普及

生成式人工智能AIGC涌现,推动算力硬件及基建发展。随着技术的不断进步和市场的日益成熟,AIGC产业在全球范围内呈现出迅猛发展的态势。以ChatGPT、Deepseek等为代表的大模型人工智能技术浪潮席卷全球,国内互联网巨头、人工智能领域的领军企业、顶尖高校及科研机构纷纷投入类似ChatGPT乃至功能更强大的大模型研发中。随着AIGC与互联网、大数据、实体经济等领域的深度融合,以及多模态生成式模型的不断发展,AI技术的应用正迅速释放到工业、医疗、教育等多个领域。人工智能正在迎来快速发展的黄金时受益于数据资源的不断丰富、算力硬件资源的需求增长以及大模型技术的突破发展。根据中国信通院《中国算力发展白皮书(2023)》的统计数据显示,GPT-3参数规模约1746亿,GPT-4则达到1.8万亿,算力需求增幅高达68倍。DeepSeek的开源举措,将进一步驱动头部大模型厂商加速拓展通用基础大模型的能力边界。xAI旗下Grok-3采用20万卡训练集群实现性能突破,更是直观证明了预训练ScalingLaw对人工智能发展的长期基石作用。在文本大模型生态日趋繁荣的背景下,多模态大模型(涵盖图像、视频等领域)正迎来发展黄金期。这类模型对数据规模和结构复杂度的要求更高,将持续催生新的算力需求。 全球算力需求爆发式增长:随着人工智能、大数据、工业互联网等数字化技术规模化应用,全球算力需求高速增长。中国信通院数据显示,截至2024年底,全球通算规模达628EFLOPS(FP32),同比增长14.0%;智算规模达5693EFLOPS(FP16),同比增长64.7%;超算规模为20EFLOPS(FP64)。在全球智能化进程加速推进的背景下,智算需求呈现出高速增长的强劲态势。据国际数据公司(IDC)预测,2024年全球人工智能服务器市场规模为1251亿美元,2025年预计将增至1587亿美元,2028年有望达到2227亿美元。 我国算力规模同步高增:根据IDC发布的《2025年中国人工智能计算力发展评估报告》,2025年中国智能算力规模将达到1,037.3EFLOPS,预计到2028年将达到2,781.9EFLOPS;此外,2025年中国通用算力规模将达到85.8EFLOPS,预计到2028年将达到140.1EFLOPS。预测显示,2023-2028年期间,中国智能算力规模的五年年复合增长率预计达到46.2%,通用算力规模的五年年复合增长率预计达到18.8%,均有显著提升。 (divcenter)图1:全球2024-2028全球人工智能服务器市场规模(亿美元)(/divcenter) 高算力需求带动液冷数据中心发展:高算力需求持续爆发直接驱动数据中心建设与单机柜功率密度快速提升,进而倒逼高密度散热方案普及,带动液冷成为行业刚需。 根据UBS,2025-2030年期间,数据中心直接液冷市场的复合年增长率仍将达51%,规模从2024年的11.4亿美元增至2030年的310亿美元。根据科智咨询,中国液冷数据中心市场快速发展,市场规模增速超过50%;预计到2027年,液冷市场将以60%的复合增长率,突破千亿规模。

1.2.芯片功耗与机柜密度持续攀升,高算力带来散热刚需升级

AI单芯芯片功率激增。随着算力需求不断增长,通信设备性能持续迭代,芯片功耗与热流密度同步大幅上升,产品每代升级功率密度可提升30%sim50%。当前主流X86架构CPU峰值功耗已达300~400W,行业顶尖芯片热流密度突破120mathrmW/mathrmcm^2。功率密度持续走高,直接加剧芯片散热压力并影响长期可靠性,传统风冷方案已逐渐难以满足高端芯片的散热需求。以英伟达为例,其GPU产品热设计功耗呈阶梯式攀升:从B200的700W提升至GB300的1400W,未来VR300功耗或将达到4000W,传统风冷散热已难以满足新一代算力芯片的散热需求。 液冷技术主要用于应对高功率密度机柜的散热难题。随着单机柜功率密度持续提升,机房制冷系统面临更高要求,液冷作为新一代制冷技术,成为高密场景下的关键解决方案。 海外数据中心机柜整体偏向高功率配置,国内现阶段仍以10kW以下机柜为主。我们认为从行业趋势来看,国内未来也有望向高功率机柜升级,发展空间广阔。 液冷方案正从可选配置逐步转变为刚需选择。面对芯片功耗与机柜功率密度的快速提升,传统风冷技术已难以满足新一代服务器的散热要求。通常情况下,风冷仅能适配20kW/机柜以下的功率密度,当功率超过20kW后,液冷的散热优势便会显著凸显。在此趋势下,液冷技术已成为应对高功率散热难题、保障系统稳定可靠运行的核心基础设施,进而从“可选项”升级为“必选项”。以英伟达为例,其服务器散热方案从GB200NVL72的“液冷^+风冷”混合方案,逐步演进为Rubin架构下的全液冷方案,并计划引入微通道冷板(MCCP)、芯片内置微通道顶盖(MCL)等先进微通道液冷技术,以适配未来更高功率与更严苛的散热需求。 液冷技术具备四大核心优势。1)低能耗:液冷散热技术传热路径短、换热效率高、制冷能效高的特点促成液冷技术低能耗优势:传热路径短:低温液体由CDU(冷量分配单元)直接供给通讯设备内;换热效率高:液冷系统一次侧和二次侧之间通过换热器实现液液换热;一次侧和外部环境之间结合风液换热、液液换热、蒸发汽化换热三种形式,具备更优的换热效果;制冷能效高:液冷技术可实现40sim55^circmathsfC高温供液,无需压缩机冷水机组,采用室外冷却塔,可实现全年自然冷却;除制冷系统自身的能耗降低外,采用液冷散热技术有利于进一步降低芯片温度,芯片温度降低带来更高的可靠性和更低的能耗,整机能耗预计可降低约5%;2)高散热:液冷系统常用介质有去离子水、醇基溶液、氟碳类工质、矿物油或硅油等多种类型;这些液体的载热能力、导热能力和强化对流换热系数均远大于空气;因此,针对单芯片液冷相比于风冷具有更高的散热能力。同时,液冷直接将设备大部分热源热量通过循环介质带走;单板、整柜、机房整体送风需求量大幅降低,允许高功率密度设备部署;同时,在单位空间能够布置更多的ICT设备,提高数据中心空间利用率、节省用地面积。3)低噪声:液冷散热技术利用泵驱动冷却介质在系统内循环流动并进行散热,解决全部发热器件或关键高功率器件散热问题;能够降低冷却风机转速或者采用无风机设计,从而具备极佳的降噪效果,提升机房运维环境舒适性,解决噪声污染问题。4)低TCO:如上所述液冷技术具有极佳的节能效果,液冷数据中心PUE可降至1.2以下,每年可节省大量电费,能够极大的降低数据中心运行成本。相比于传统风冷,液冷散热技术的应用虽然会增加一定的初期投资,但可通过降低运行成本回收投资。以规模为10MW的数据中心为例,比较液冷方案(PUE1.15)和冷冻水方案(PUE1.35),预计2.2年左右可回收增加的基础设施初投资。下图给出了传统风冷、冷板式液冷和单相浸没液冷每年的能耗和电费对比。

1.3.能效监管趋严,PUE约束加速液冷渗透

数据中心PUE指标不断降低。PUE是算力中心最常见的评价性能指标,也是行业评价算力中心绿色性能的主要衡量指标,PUE(电源使用效率)定义为数据中心总设备能耗(IT设备能耗与辅助设备能耗之和)与IT设备能耗的比值。辅助设备能耗越低,PUE值越小;因此,降低PUE的核心路径在于严控并削减非IT类辅助设备的能耗,PUE值越接近于1,则代表算力中心的绿色化程度越高。 近年来,各级主管部门对算力中心PUE要求持续提升。2021年7月,工信部印发《新型数据中心发展三年行动计划(2021-2023年)》明确提出,到2023年底,新建大型及以上数据中心PUE降到1.3以下。2022年1月,国家发改委同意启动建设全国一体化算力网络国家枢纽节点的系列复函中指出,国家算力东、西部枢纽节点数据中心PUE分别控制在1.25、1.2以下。2023年4月,财政部、生态环境部、工信部联合印发《绿色数据中心政府采购需求标准(试行)》中提出,自2023年6月起数据中心电能比不高于1.4,2025年起数据中心电能比不高于1.3。北京、上海、深圳等其他地方政府也相继对算力中心PUE提出了一定的限制要求。与此同时,国家持续鼓励算力中心在研发、测试和应用中,采用液冷相关技术,加大算力中心行业节能技术创新力度,提升能源利用效率。 近年来,为了降低制冷系统电能消耗,行业内对机房制冷技术进行了持续的创新和探索。各制冷技术对应PUE范围如图所示。间蒸/直蒸技术通过缩短制冷链路,减少过程能量损耗实现数据中心PUE降至1.15sim1.35;液冷则利用液体的高导热、高传热特性,在进一步缩短传热路径的同时充分利用自然冷源,实现了PUE小于1.25的极佳节能效果。

1.4.英伟达供应链开放,大陆液冷链迎来历史性机遇

英伟达逐步开放供应链名录,大陆厂商获得更多参与机会。在GB200阶段,英伟达指定维谛技术(Vertiv)作为独家供应商。这种模式中,液冷供应商多作为二级或三级供应商,通过ODM厂商间接进入供应链。GB300及后续架构的推出,英伟达开始开放供应商名录,允许代工厂在一定范围内自主选择供应链组成。我们认为英伟达从GB200独家指定维谛技术,到GB300及后续Rubin架构开放供应链,让具备产品优势的大陆液冷厂商迎来直接入局机会,外围生态空间显著扩大。 台系ODM/OEM厂商产业角色显著抬升,由传统一次侧配套供应商升级为一次+二次侧一体化系统集成商。以富士康、英业达、纬创、广达、技嘉、神达、仁宝、其阳、和硕为代表的台资企业,在CDU环节已具备与维谛同台竞争的能力,可自主完成歧管、快速接头、冷板、泵体及控制系统等核心部件的选型集成,进而为大陆高性价比供应链厂商带来新增配套机遇。 英伟达服务器液冷市场份额将随着架构变化发生结构性变化。1)GB200液冷板赛道呈现头部集中、梯队清晰的竞争格局。AVC占据主导地位,市场份额超55%;双鸿以25%-30%位居第二;CoolerMaster作为第三供应商,承担市场补充供给角色。交付层面,液冷板以裸板形式供货至广达、鸿海等下游整机厂商,管路连接工序由IT侧完成,整体流程简洁。2)GB300供应商体系出现结构性反转。CoolerMaster跃升为核心供应商,份额突破55%;AVC退居第二;双鸿份额大幅收缩至5%以下。生产交付模式同步升级,GB300液冷板需先行完成小集成工序,包括软管装配、快接头安装及气密性测试,再将集成模组交付广达、鸿海做简易封装。因生产及集成工作量显著提升,CoolerMaster联合英维克、川环等大陆厂商开展代工合作,成品由CoolerMaster完成集成,其中英维克同步供应快速接头等核心零部件。我们认为随着下一代Rubin散热功率激增以及服务器架构发生巨大变化,Rubin液冷方案的供应商市场份额或将产生结构性变化。

1.5.ASIC普及+液冷价值量随芯片代数提升,液冷需求点到面全面爆发

ASIC芯片出货量激增,供需闭环:全球AI算力竞赛推动下,液冷已从数据中心散热的备选方案成为高功耗芯片的刚需,而在传统GPU驱动液冷需求之外,ASIC(专用集成电路)的普及正为液冷市场打开全新的增长空间。谷歌、AWS、Meta、字节跳动等全球科技巨头纷纷加码自研ASIC芯片,其高定制化、高功耗的特性让散热需求较通用GPU更为复杂,叠加2026年数据中心ASIC芯片出货量有望突破1000万颗的市场增量,我们认为ASIC正成为液冷赛道继GPU后的又一核心驱动力,也为液冷供应链带来了全新的技术要求和市场机遇,在液冷产业化元年重构着行业的需求格局。 英伟达为代表GPU出货领先,谷歌为代表ASIC追赶。2025至2027年,全球AI芯片累计出货量预计将达到4600万颗,年增长率维持在30%左右,芯片整体供应能力基本能够覆盖市场的算力需求。从头部厂商出货情况来看,英伟达2026-2027年Blackwell和Rubin系列芯片的出货量有望达1600万颗,折算为NV72整机柜约22.2万台;而谷歌等企业的ASIC芯片出货量约为1000万颗,按照TPU64方案测算,对应整机柜数量约15万台。 ASIC液冷散热需求偏定制化,巨头全面转向液冷:1)作为全球三大云服务商之一,谷歌全面布局液冷的战略决策,正持续加速液冷技术的规模化落地进程。谷歌CEO桑达尔·皮查伊曾在2024年I/O开发者大会上披露,公司部署的液冷设备规模已达到约1吉瓦。ASIC市场兼具高度分散性与定制化属性,这为具备灵活解决方案供给能力的厂商打开了明确的市场空间,ASIC的散热方案则需与芯片设计环节进行深度的技术协同与适配。台湾散热厂商奇科技于财报发布会上披露,其核心客户正持续加码ASIC领域的投入,公司并预计明年该业务板块将实现可观增长。从产品端来看,相较于GPU,ASIC液冷板在使用数量及系统设计层面的复杂度均更高,这也推动市场对ASIC水冷解决方案的需求呈现显著升温态势。以谷歌TPU为例,谷歌在液冷供应链采购上采用直采模式,省去中间环节直接与液冷系统及零部件供应商对接,供应商经审核通过后,将成为谷歌一级供应商并直接为其供货。从供应商体系来看,谷歌划分了AVL(已批准供应商)、R-VAL(预留批准供应商)、RVL(推荐供应商)三个层级,对于CDU这类核心组件,其采购渠道主要聚焦于AVL层级供应商。 大陆厂商有望以一级供应商身份直接切入谷歌液冷环节。价值量环节:CDU环节的价值占比约为40%-50%,冷板环节占比达20%-30%,快接头、管路等配套组件则占据剩余价值份额。我们认为这将直接利好大陆部分大陆厂商,相关企业有望以一级供应商的身份切入谷歌液冷供应链体系。

2.液冷技术:散热路径多元分化,冷板仍是主要解决方案

2.1.液冷技术多元化:冷板式仍将占据主流

液冷技术分为接触式和非接触式。液冷技术分为接触式及非接触式两种,接触式液冷是指将冷却液体与发热器件直接接触的一种液冷实现方式,包括浸没式和喷淋式液冷等具体方案。非接触式液冷是指冷却液体与发热器件不直接接触的一种液冷实现方式,包括冷板式等具体方案。液冷系统通用架构及原理如下图所示;室外侧包含冷却塔、一次侧管网、一次侧冷却液;室内侧包含CDU、液冷机柜、ICT设备、二次侧管网和二次侧冷却液。

2.1.1.冷板式液冷目前最成熟,最适用于数据中心

冷板式液冷目前最成熟,浸没式或为未来趋势。冷板式液冷采用微通道强化换热技术具有极高的散热性能,目前行业成熟度最高;而浸没式和喷淋式液冷实现了100%液体冷却,具有更优的节能效果。冷板式液冷是通过液冷板(通常为铜铝等导热金属构成的封闭腔体)将发热器件的热量间接传递给封闭在循环管路中的冷却液体,通过冷却液体将热量带走的一种散热形式。冷板式液冷系统主要由冷却塔、CDU、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成;其中液冷机柜内包含液冷板、设备内液冷管路、流体连接器、分液器等。 冷板式液冷利用液冷板传导带出热量。冷板式液冷散热原理:1)液冷板与芯片贴合;2)芯片设备热量通过热传导传递到液冷板,工质在CDU循环泵的驱动下进入冷板之后在液冷板内通过强化对流换热吸收热量温度升高,高温工质通过CDU换热器将热量传递到一次侧冷却液,温度降低;3)低温的工质再进入循环泵,一次侧冷却液最终通过冷却塔将热量排至大气环境中。 冷板式液冷作为非接触式液冷的一种,行业内具有10年以上的研究积累,在三种主流液冷方案中技术成熟度最高,是解决大功耗设备部署、提升能效、降低制冷运行费用、降低TCO的有效应用方案;具有以下技术特性和优势。 根据冷却介质在冷却构成中是否发生汽化,可以将冷板式进一步分为单相和相变两类。传统单相冷板式液冷通常只覆盖CPU、GPU等个别高功耗芯片。随着芯片功耗加大,业内已经开始布局相变式液冷技术。两者的制冷架构基本一致,主要区别在于二次侧冷却液的不同。 单相冷板适配目前多数数据中心服务器场景。单相冷板原理为冷却液在冷板内部循环时始终保持液态,通过冷却液的流动带走服务器产生的热量。该技术路线应用成熟、成本可控,适配多数AI服务器与数据中心场景。不过单相态液体冷却能力已接近物理极限,难以应对未来更高功率芯片。 两相冷板为后续超高功率芯片液冷选择。两相冷板原理冷却液在冷板内部循环时会发生相变,即从液态变为气态,通过相变过程吸收大量的热量,从而实现更高效的散热。双相液冷通过相变潜热实现散热能力跃升,适配未来更高功率芯片,是下一代核心方向。

2.1.2.浸没式液冷散热效果更好,但成熟对相对较低

浸没式液冷是以冷却液作为传热介质,将发热器件完全浸没在冷却液中,发热器件与冷却液直接接触并进行热交换的制冷形式。浸没式液冷系统室外侧包含冷却塔、一次侧管网、一次侧冷却液;室内侧包含CDU、浸没腔体、IT设备、二次侧管网和二次侧冷却液。使用过程中IT设备完全浸没在二次侧冷却液中,因此二次侧循环冷却液需要采用不导电液体,如矿物油、硅油、氟化液等。 按照热交换过程中冷却液是否存在相态变化,可分为单相浸没液冷和两相浸没液冷两类。1)单相浸没式液冷:作为传热介质的二次侧冷却液在热量传递过程中仅发生温度变化,而不存在相态转变,过程中完全依靠物质的显热变化传递热量。单相浸没液冷系统原理是CDU循环泵驱动二次侧低温冷却液由浸没腔体底部进入,流经竖插在浸没腔体中的IT设备时带走发热器件热量;吸收热量升温后的二次侧冷却液由浸没腔体顶部出口流回CDU;通过CDU内部的板式换热器将吸收的热量传递给一次侧冷却液;吸热升温后的一次侧冷却液通过外部冷却装置(如冷却塔)将热量排放到大气环境中,完成整个制冷过程。2)两相浸没式:作为传热介质的二次侧冷却液在热量传递过程中发生相态转变,依靠物质的潜热变化传递热量。两相浸没液冷系统传热路径与单相浸没液冷基本一致。主要差异在于二次侧冷却液仅在浸没腔体内部循环,浸没腔体内顶部为气态区、底部为液态区:IT设备完全浸没在低沸点的液态冷却液中,液态冷却液吸收设备热量后发生沸腾,汽化产生的高温气态冷却液因密度较小,会逐渐汇聚到浸没腔体顶部,与安装在顶部的冷凝器发生换热后冷凝为低温液态冷却液,随后在重力作用下回流至腔体底部,实现对IT设备的散热。 浸没式液冷的局限性在于器件选型和维护。1)硬盘:由于冷却液的渗入,普通机械硬盘无法正常运转,需要被替换为固态盘,或氮气硬盘;2)风扇:对于改造升级的数据中心机柜,需要拆除所有风扇组,并屏蔽风扇故障信号;对于新建的数据中心,机柜内部无需再设计风扇及配套的调速和故障检测措施;3)光模块:为了避免出现由冷却液渗入引起的信号失真和错乱,需要选用全密封处理的光模块;4)导热界面材料:液冷环境下导热硅脂会被液体冲刷溶解,需要使用固态界面材料。5)维护局限性:浸没式液冷设备维护时需要打开Tank上盖,并配备可移动机械吊臂或专业维护车实现设备的竖直插拔,维护复杂度高,耗时长;且开盖维护过程有一定的冷却液挥发问题,增加运行成本;6)机房环境特殊性:因浸没式液冷系统Tank内充满冷却液,整柜重量大幅增加,对机房有特殊承重要求,普遍要求浸没式液冷机房地板承重应大于1500mathrmkg/mathrmm2。7)结构颠覆性:区别于传统意义上的立式机架结构,浸没液冷所用的浸没腔体为卧式Tank。 部分国内厂商选择冷板式和浸没式结合的方式为后续方案。曙光数创(中科曙光子公司)是浸没式液冷路线的核心代表厂商。此外,中兴通讯、浪潮信息、高澜股份、飞荣达、同飞股份、科华数据、英维克等进行浸没式和冷板式双路线布局。

2.1.3.喷淋式液冷仍处于早期,应用较少

喷淋式液冷将冷却液直接喷洒到热源。喷淋式液冷是面向芯片级器件精准喷淋,通过重力或系统压力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形式,属于直接接触式液冷。喷淋式液冷系统主要由冷却塔、CDU、一次侧&二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。喷淋式液冷系统原理是在冷量分配单元内冷却后的冷却液被泵通过管路输送至喷淋机柜内部;冷却液进入机柜后直接通过分液器进入与服务器相对应的布液装置,或将冷却液输送至进液箱以提供固定大小的重力势能以驱动冷却液通过布液装置进行喷淋;冷却液通过IT设备中的发热器件或与之相连的导热材料进行喷淋制冷;被加热后的冷却液将通过回液箱进行收集,并通过泵输送至冷量分配单元进行下一个制冷循环。 喷淋式液冷同样实现了100%液冷,其结构颠覆性优于浸没式液冷,但节能效果差于浸没式液冷,且存在与浸没式液冷相同的局限性问题。

2.2.冷板式液冷核心零部件:技术优势决定竞争格局

冷板式液冷由室内侧(二次侧)和室外侧(一次侧)组成。室内侧核心部件(散热执行层)室内侧是热量直接回收的关键环节,通过模块化部件构建精准的“液态散热网络,核心零部件包括: 1)冷板:直接贴合CPU/GPU芯片表面,冷却液流经内部流道带走热量,适配单相/相变冷源——单相冷板可支持单机柜132kW散热,相变冷板可达160kW,耦合液冷方案突破200mathrmkW,覆盖高密度芯片散热需求。 2)CDU(冷却液分配单元):系统“中枢”,兼具冷却液输送、温度/流量调控功能:改造场景优先风液混合式CDU(兼容新旧设备),新建大型智算中心宜选液-液热交换式CDU(PUE可降至1.08以下)。 3)Manifold(歧管):机柜内流体分配枢纽,核心要求“流量偏差率leqslant5%leqslant,确保每台服务器、每块冷板获得均衡冷却液,避免局部芯片过热。 4)快插接头(UQD):维护安全保障部件,需满足“插拔1000次零泄漏”“40^circmathsfC高温下密封垫不老化\“\“耐压mathrmgeq1.6mathrmMPa^prime,支持维护时无需排空系统,降低停机风险。 5)二次侧冷却液:按场景适配而非盲目选优:冷板系统用去离子水(成本低、易维护),低温环境用30%乙二醇+70%水混合液(抗-20^circmathsfC冰冻),芯片直浸场景用氟化液(绝缘性好、散热效率高)。室外侧(一次侧)包括室外侧冷却塔、一次侧循环冷却液等。 根据我们测算,冷板(占比39%、CDU(31%)Manifold(14%)及UQD(15%)为冷板式液冷系统中价值量较高的四个零部件。以英伟达GB300为例,价值量占比如下: 大陆供应商有望在后续架构进入一级供应商序列。当前国产液冷供应链仍以二级零部件及材料配套为主,尚未进入核心一级供应序列。以GB200/GB300冷板式液冷系统为例,其一级供应商仍由欧美及台系厂商主导,主要包括维谛(Vertiv)、AVC、CoolerMaster等;国内厂商多处于二三级配套环节,为头部一供提供零部件与原材料。我们认为中长期看,随着液冷服务器行业逐步走向成熟、大陆头部液冷厂商产品与方案持续迭代,叠加终端云服务商(CSP)对供应链性价比重视度提升,大陆液冷供应链有望突破层级限制,以一级供应商身份直接切入英伟达供应体系。 台商供应商具备先发优势,大陆供应商潜在替代空间大。液冷技术在AI数据中心的渗透率也从2024年14%大幅提升至2025年33%。台商凭借成熟的制造能力、先发的技术认证以及全球化的产能布局,全面覆盖液冷供应链各核心环节,成为 GB200/GB300的核心供应力量,各细分环节厂商依托差异化优势卡位赛道,业绩增长动能集中于2025年Q4且中长期成长确定性较强。 1)机柜代工(含整机柜/机壳):头部ODM厂瓜分核心订单,产能全球化布局成趋势。机柜代工是GB200/GB300供应链的核心环节,台商占据绝对主导地位,头部厂商凭借NVIDIA认证资质瓜分超95%的GB300订单,且均完成海外产能布局以应对美系客户的产能分散需求。鸿海、广达、英业达为GB300订单第一梯队,分别拿下40%、25%、20%的份额;其中鸿海是首批完成GB200/GB300量产交付的厂商,2025年AI机柜出货市占率高达57%。 2)液冷散热模组:冷板为核心产品,认证先发者与产能扩张者双轮受益。液冷散热模组是GB200/GB300的核心配套环节,随着GB300升级为全冷板液冷方案,冷板、CDU等产品需求大幅提升,台商中率先取得NVIDIA认证、完成产能布局的厂商成为主要受益者,且液冷业务营收占比持续提升。双鸿、讯强(CoolerMaster)、奇为第一梯队;因较早取得GB300水冷板认证,市占率有望提升至20%-25%;讯强是英伟达GB200/GB300最大的冷板组件供应商之一,自建越南北宁工厂,将 CDU作为未来推广主线;奇扩产水冷板、分歧管等产品;台达电子提供具备200mathrmkW冷却能力的机柜级液冷完整方案,液冷产品出货量逐步提升,同时实现散热与电源解决方案的一体化供应,形成协同优势。 3)CDU:台湾CDU厂商在英伟达供应链中占据核心地位。台达、讯强、双鸿等企业深度绑定GB200/GB300项目,凭借全系列液冷方案^+高功率产品布局,成为英伟达液冷体系最主要的台系供给力量。 4)分歧管(Manifold/CDM):产能扩张为核心动作,产品适配新一代架构。分歧管作为冷却液分配的核心部件,随液冷渗透率提升需求同步增长,台商主要围绕产能扩张与新一代架构适配两大方向布局,同时成为头部厂商的营收增量点。双鸿为微软、甲骨文的CDM供应商,产品完成Supermicro性能测试,将适配英伟达Blackwell架构;奇、台达电子则将分歧管与水冷板、CDU等产品协同供应,成为GB300放量后的重要营收增量;品达依托镁合金散热材料技术,开发适配高密度运算的分歧管相关组件,切入英伟达供应链。 5)快接头(UQD/NVQD):快接头用量提升。快接头是液冷系统的关键连接部件,GB300带动UQD用量翻倍,台商格局呈现单一厂商高增长^+头部厂商战略布局的特征,产品开发进度直接决定出货节奏。 我们认为大陆厂商在NVIDIA后续架构液冷供应链的潜在替代机会并非简单的局部补位,而是具备全环节、多维度的广泛机会。随着后续更多厂商完成英伟达认证、产能持续扩张以及本土液冷生态的不断完善,大陆厂商的市场份额将逐步提升,替代进程的加速将会重构全球液冷供应链的竞争格局,推动国内液冷产业链的技术升级与全球化布局,未来大陆厂商在全球AI液冷供应链中的话语权有望显著增强。

2.2.1.液冷板是散热模块的核心,技术壁垒与价值量双高

液冷板直接接触处理器等发热元件,通过内部微通道循环冷却液实现高效换热。冷板是热传递链条中最关键的一环,直接安装在CPU和GPU等高功率芯片上。其价值量占比达到40%。它们必须满足极为苛刻的性能指标:热阻低于0.03^circC/W,流阻不超过20mathrmkPa.。设计上,冷板采用高纯度铜(导热系数高达385mathrmW/mK.)作为基材,并通过铲齿(skivedfin)工艺制造出微通道结构。关键的设计参数包括鳍片厚度(≤0.5mathrmmm.、间距(leqslant0.5mathrmmm,)和高度(geqslant3mathrmmm),以最大化热交换的表面积。液冷板上游主要原材料包括铝合金、铜合金和复合材料,参与厂商主要是原材料企业如中铝、紫金矿业等。中游是液冷板加工环节,涵盖加工制造到系统集成的全产业链环节。1)海外液冷板供应商包括:CoolerMaster、Boyd、CoolIT、Foxconn富士康、Chilldyne、奇宏(AVC)、Auras(双鸿)、健策、建准、台达、品达等;2)大陆液冷板配套公司包括:远东股份、英维克、深圳威铂驰、立敏达、思泉新材、川润股份、精研科技、奕东电子、飞荣达、科创新源、中石科技、同飞股份等液冷板配套厂商。 (divcenter)图39:GB300冷板式液冷板(/divcenter) 我们认为下一代液冷板将在相变、液冷板结构及材料端发生较大变化。芯片级散热技术一般可分为三种类型。1)远端冷却架构(RemoteCoolingArchitecture):芯片通过两层热界面材料(TIM)将热量传导到热沉或冷板。该方式是传统的远端散热方案,但随着芯片功率密度增加,其散热能力逐渐受限。2)近芯片冷却架构(Near- ChipCoolingArchitecture):为应对功率密度和芯片面积增加带来的散热压力,近芯片冷却架构直接将芯片通过一层TIM与热沉或冷板贴合,减少了中间的热阻层,从而提升可冷却的热流密度。相比远端冷却,这种方式能够更高效地传导热量,提高芯片整体散热性能。3)芯片内嵌冷却架构(EmbeddedOn-ChipCoolingArchitecture):通过消除芯片与热沉之间的TIM,在芯片衬底上刻蚀微通道,并引入流体冷却介质,实现直接内部散热。此方式能够将热量从芯片核心快速带走,是应对高功率密度芯片的先进散热方案。根据披露RubinGPU将率先在旗舰级算力平台上采用微通道冷板(MCCP)^+镀金散热盖(gold-platedlid)的组合方案,这意味着微通道技术被正式确立为高端AI服务器的主流散热形态,而市场高度期待的、将液冷结构直接集成进封装盖板内部的微通道盖板(MCL,封装级液冷),最快仍需到2027年下半年才进入量产阶段。我们了解目前大多数冷板式散热方案基本是基于近芯片冷却架构,在微通道结构及冷板材料上进行革新;后续芯片内嵌冷却架构、双相冷板、以及冷板式结合浸没式或为未来主流散热方式。

2.2.2.CDU是液冷系统的“心脏”

CDU主要起到热量交换中枢、冷却液循环驱动与精准调控的关键作用,直接影响系统的散热效率和能效。其价值量占比达到30%。CDU是冷板式液冷系统中一次侧(室外散热回路)与二次侧(室内冷却回路)的连接点,通过内部换热器实现热量转移。连接室内外冷却系统,集成水泵、控制器、换热器等,实现智能温控与流量调节,包含水泵、控制器和整体解决方案。1)海外CDU供应商包括:CoolerMaster、Vertiv、nVent、CoolIT、Boyd、Schneider、尼德科、施耐德、建准、台达、讯强等;2)大陆CDU供应商包括:英维克、高澜股份、申菱环境、川润股份、曙光数创、同飞股份、佳力图、依米康等厂商。 泵和换热器是CDU中核心零部件。1)泵:作为CDU系统的“动力核心”,通过持续输出稳定动力驱动冷却液在整个循环管路中有序流转,确保低温介质能够源源不断地流经发热设备,为高效吸收并带走热量提供了基础流动保障,是维持散热循环闭环的关键动力源。目前在CDU中主要分为机械泵和电子泵,海外泵供应商包括格兰富、塞莱默、Vertiv等;大陆泵供应商包括:飞龙股份、南方泵业、大元泵业等厂商。我们认为随着CDU容量上升,在有限的服务器空间中,电子泵是未来趋势。2)板式换热器:换热器是CDU系统中实现热量转移的核心装置,根据应用场景不同分为两类:液体-空气热交换器通过与周围空气的直接热交换,将冷却液中携带的热量释放到环境中,特别适用于缺乏液体管道基础设施的场所,能以简洁架构实现高效散热;而液-液热交换器则承担着“热量中转站”的角色,将主冷却液回路中的热量传递至设施的二次水系统,通过分级换热的方式适配大型复杂冷却网络,为规模化散热需求提供灵活解决方案。 CDU根据处于服务器不同位置分为In-RowCDU和In-RackCDU。1)机柜内(In-Rack):直接集成在服务器机柜中。2)列间(In-Row)/边车(Sidecar):服务于一个或多个机柜的大型外部单元。其制冷能力非常强大,列间CDU的制冷量可超过1.3MW。边车式CDU常见于L2A解决方案,制冷能力通常为180mathrmkW或240kW。 我们认为后续In-RackCDU或为未来趋势。In-RowCDU当前主要面向大规模算力中心场景,下游需求以大模型训练为核心,短期内仍是行业主流形态。我们判断,中长期来看In-rackCDU的渗透率将逐步提升,伴随AI应用场景持续普及,ASIC推理侧的小规模算力需求快速增长,In-rackCDU在部署灵活性、适配小规模算力集群等方面具备显著优势,有望充分受益于行业结构变化。

2.2.3.快接头&Manifold是冷却液循环的传输通道,确保冷却液无泄漏

管路&歧管(Manifold)是定制化的管道组件,负责将来自CDU主管道的冷却液均匀分配到每个服务器托盘。价值量占比达到14%。其设计对于确保所有组件获得均等的流量和压力至关重要,以防止出现局部热点。一项关键创新是采用垂直歧管设计,与传统的水平设计相比,这节省了宝贵的机柜空间。该系统还在机柜背部采用了“盲插(blind-mate)”设计,允许服务器托盘在滑入机柜时自动连接电源、网络和冷却管线,无需人工干预。1)海外Manifold供应商包括:高力科技、双鸿、台达、品达、奇鸿等;2)大陆Manifold供应商包括:英维克、中航光电、川环科技、东阳光、申菱环境、溯联股份、标榜股份等厂商。 快接头(UQD)是防漏液关键的连接界面,对精密工程要求高。其价值量占比为15‰快接头对于系统的模块化至关重要,允许在不排空整个冷却回路的情况下更换单个服务器托盘(即“热插拔\“)。其最重要的特性是“无滴漏”或“防溢出”设计,通过精密的阀门结构,确保在连接或断开时不会有任何冷却液泄漏,这对保护敏感的电子设备至关重要。它们必须在长期连接状态下保持高度可靠,并通过“咔哒”声或触觉反馈来确保连接到位。1)海外UQD供应商包括:CPC、ParkerHannifin(派克汉尼汾)、Danfoss(丹佛斯)、Staubli(史陶比尔)、CoolerMaster、嘉泽、AVC、富世达、品达、时硕、双鸿等;2)大陆UQD供应商包括:英维克、中航光电、川环科技等厂商。 我们认为未来Manifold&UQD价值量将伴随服务器代数升级导致管路和结构件数量发生变化而进一步提升。

3.Rubin微通道液冷方案或成为确定性趋势,ASIC液冷市场正在逐步打开

英伟达Rubin或将运用微通道冷板,微通道盖板及相变冷板为未来超高功率解决方案。以英伟达新一代AI计算平台为技术风向标,全球液冷散热正迈入超高能效与封装级深度集成并行的技术新阶段。行业将迎来明确的技术路线分化:1)两相冷板;2)微通道冷板(MLCP)有望成为1500W-3500W功耗区间的主流解决方案;而更具革命性的3)微通道盖板(MCL)已进入样品验证阶段,目标直指3500W以上算力场景的“热墙”难题。 我们认为这一技术变革将直接推动液冷单机柜价值量显著提升,并重构原有封闭供应链体系,为具备精密制造、材料创新及系统整合能力的厂商,尤其是国内供应链企业,打开历史性的产业切入窗口。但同时,微通道技术在规模化量产良率、密封检测、成本控制及产业链协同等环节仍存在显著瓶颈,其大规模商用化进度,将高度依赖未来1-2年关键技术与工程化难题的突破节奏。

3.1.相变冷板:依托相变换热机理破解高功率散热瓶颈

两相液冷被视作单相液冷之后,散热性能更具优势的其中一种下一代液冷技术。泵送双相(P2P)冷却技术以制冷剂为工作介质,依托其在直接贴合硬件的冷板内部发生液-气相变的过程,实现对高密度算力AI硬件的高效热量移除。其工作机制为:制冷剂以液态形式储存于CDU内部储液罐,由机械泵将其输送至行级与机架级分配管路,进而供给至发热的信息技术设备(ITE);液态制冷剂通过可维护快接接头进入设备内部冷板,吸收核心发热器件热量后部分发生汽化,借助相变过程中的汽化潜热实现近似等温换热,并在冷板壁面形成极高的传热系数;气液两相混合工质流出冷板后,经回流管路进入CDU内部换热器,通过冷凝将热量释放至环境介质,制冷剂完全恢复为液态并回流至储液罐,完成一次闭式循环。 两相冷板核心优势在于汽化潜热高效换热。两相冷板液冷在高功率散热场景中具备显著优势,其核心机理在于依托工质相变过程中的汽化潜热实现高效换热,而非依赖液体温升所携带的显热。单相液冷通过冷却液升温带走热量,换热能力受流体比热容与系统允许温升双重约束;而两相冷板通过冷却液在冷板表面的受控沸腾实现近似等温换热,在温度波动极小的前提下,可吸收远高于显热的热量,从而在极小温差下达成超高热通量传输,并显著改善芯片表面温度均匀性,有效抑制局部热点产生。工程应用层面,两相冷板可在kW级高功率负载下保持极低热阻,且换热性能对流量波动的敏感度显著低于单相方案,为高密度算力系统的能效优化提供了关键技术路径。 两相冷板可以通过结构设计进一步加强散热能力。由于相变换热具备极高的传热系数,P2PDLC冷板内部的对流/相变热阻通常可忽略不计,这使得传统单相冷板的内部结构设计可直接作为两相冷板的设计基础,仅需针对两相工况下更高的承压要求进行适应性优化,大幅降低了研发与部署难度。在结构形式上,亚毫米级翅厚与间距的平行直翅片微通道因在单相冷却中应用成熟、制造工艺便捷,成为P2P冷板的主流方案,其中铜质铣削翅片为最常用的制备工艺,冷板外形可根据处理器形态灵活适配。通过调整冷板上盖的流道结构,可对内部制冷剂的流向与特征长度进行调控,进而根据目标热流密度、散热容量及器件热阻需求,将换热模式优化为池沸腾、流动沸腾、射流冲击、薄膜蒸发或多机理耦合的复合传热模式,实现散热性能的精细化匹配。 两相冷板应用难点在于稳定性、成本和环保。尽管两相冷板在物理特性层面具备突出优势,但其工程化落地难度远高于单相液冷,这也是该技术长期局限于小规模试点应用的核心症结。1)相变过程本身会伴随流型的动态变化,在不同热负载工况下可能出现泡状流、弹状流乃至不稳定振荡等现象,对冷板内部结构设计与系统精准控制提出了极高要求,一旦发生沸腾失控或局部干涸,芯片温度极易在短时间内急剧攀升,其风险响应窗口远窄于单相液冷系统。2)两相冷板已超越传统微通道换热器的范畴,成为集成沸腾强化表面、液体分配层、汽液分离路径及回流结构的复杂组件,其制造工艺的一致性与长期运行的可靠性,直接决定了技术规模化复制的可行性。更为关键的是,两相液冷的挑战并非局限于冷板单体,而是延伸至整个系统层面,冷媒充注与抽真空、系统压力动态调控、泄漏实时监测、气体回收及全生命周期维护等环节,其复杂度均显著高于单相液冷系统,这也意味着,两相冷板从本质上并非可直接替代单相液冷的“替换型技术”,而是一套需要完整工程体系支撑、多环节协同适配的系统性解决方案。 两相冷板商用窗口已来。两相液冷长期未能实现规模化部署,核心症结在于其技术特性与数据中心“标准化、可维护、可复制”的核心诉求存在内在张力;在传统数据中心建设逻辑中,冷却系统作为基础设施,1)首要目标是稳定、易维护与低风险而非极限性能,早期两相液冷多以实验系统或定制项目形式存在,对系统调校与运行环境高度敏感,难以形成标准化产品形态,加之2)制冷剂成本、环保法规(尤其是高GWP或PFAS相关问题)的不确定性,进一步促使大型云服务商在技术选型上保持审慎,而单相液冷虽效率略低,但工程路径清晰、供应链成熟、风险边界可控,更契合当时产业阶段需求,因此两相液冷并非被“淘汰”,而是长期处于“性能领先但工程条件未成熟”的蛰伏状态。 当前格局正迎来关键转折点:1)AI芯片功耗与热流密度持续攀升,使得单相液冷在部分高端场景中逐渐失去工程冗余、逼近应用临界点,继续通过增加流量和泵功维持结温已不具备良好的系统效率与经济性,与此同时,2)两相冷板自身技术成熟度显著提升,沸腾表面结构从实验室方案升级为可量产设计,性能可在不同CPU与GPU架构上复现,且围绕两相系统的CDU、监控与安全体系逐步工程化,有效消解了过去备受诟病的“系统不可控性”,加之3)低GWP工质与回收体系的推进降低了法规与ESG风险。全球两相液冷技术供应链企业代表有Zutacore、芯寒智能、Accelsius、曙光数创等。我们判断在算力需求、技术成熟度与系统工程能力三者同步到位的背景下,两相冷板液冷首次具备了明确的规模化应用时间窗口,且该窗口大概率集中在未来两到三年。

3.2.微通道液冷板:结构革新与材料迭代驱动散热效能跨越式提升

3.2.1.传统微通道冷板通过微通道结构满足高换热需求

市场上常规微通道液冷板属于远端冷却架构(RemoteCoolingArchitecture)。芯片通过两层热界面材料(TIM)将热量传导到热沉或冷板。该方式是传统的远端散热方案,但随着芯片功率密度增加,其散热能力逐渐受限。常规微通道液冷板技术路线,是在传统冷板结构基础上,对内部翅片流道进行精细化迭代,将传统毫米级翅片结构进一步微缩至10^-500mumathrmm尺度,从而实现单位面积换热系数的量级提升。该方案通过显著增大换热比表面积、缩短热量扩散路径,可在有限接触面积下满足更高热流密度的散热需求,适配高密度、高功耗场景下的高效换热要求。我们认为其制造工艺核心聚焦于精密铲齿、微通道加工、扩散焊/钎焊、流道均匀性控制、气密性保障及流体洁净体系构建,技术壁垒清晰且产业链成熟度较高,是当前散热领域国产替代逻辑最为明确的技术路线之一。

3.2.2.微通道冷板需要在结构和材料上革新来满足超高功率散热

微通道液冷板在结构和材料上的革新或将成为适配Rubin及后续代数散热需求的必要条件。我们认为在不考虑相变冷板以及后续芯片直刻的微通道盖板方案的前提下,传统的微通道或也将无法满足Rubin架构的液冷散热需求。我们判断掌握微通道结构如仿生歧管微通道和复合改性材料技术如液态金属铜、金刚石铜、石墨烯铜等技术的公司将具备核心竞争力。

3.2.3.微通道盖板/芯片直刻及衍生技术或为未来方案

微通道盖板取消了TIM2层。传统芯片封装所采用的集成均热板(IHS/Lid),可与冷板一体化设计,重构为微通道Lid结构。该技术路线直接在封装保护盖内部刻蚀微流道,使散热盖本身兼具微流控换热功能,推动液冷结构由系统级部件向封装级功能件升级。通过该设计可省去传统架构中的TIM2(二级热界面材料),实现冷板与芯片裸片(die)之间仅保留TIM1(一级热界面材料),大幅缩短传热路径、降低界面热阻,显著提升芯片封装级散热效率与功率密度适配能力。 VC微通道盖板(Lid)在微通道盖板基础上将冷板和VC结合。把传统的Lid替换成VC的Lid,将冷板和VC进行结合。进一步优化改结构的热管理性能。 嵌入式微通道冷板(EmbeddedMicrochannelPlate)将部分结构设计进器件本体。这打破了传统冷板作为独立外设部件的设计边界,通过将微流道结构内嵌至器件本体,实现流体换热通道与热源Die的近距离耦合,进一步压缩传热路径、降低界面热阻。该方案的核心特征在于加工精度向半导体级逼近,对刻蚀、LIGA、微结构成型等精密制造工艺提出更高要求,是液冷散热部件由传统机械加工件向微纳级精密制造件升级的关键技术形态。 (divcenter)图63:嵌入式微通道冷板结构(/divcenter) MCL微通道封装盖实现大规模量产仍需跨越设计、制造、供应链三大关键瓶颈。1)在设计层面,微通道尺寸需控制在10-1000微米,需兼顾冷却液流通性与系统压降,压降过高不仅会增加泵功耗、降低能效,还可能引发冷却液旁路效应,造成芯片局部过热,IBM早年相关技术即因流道设计问题未能落地,尽管当前可借助AI仿真优化,但仍是核心技术难点;2)制造层面,MCL依赖高精铣削、蚀刻等半导体级工艺,传统冷板厂商设备无法适配,需投入数亿新台币进行设备更新,且初期良率不足50%,需长期爬坡,同时其底部均热板需在铜基底电镀镍层以防氧化,并将平面度误差控制在100微米以内,电镀与平整度管控均超出传统厂商常规工艺能力;3)供应链层面,MCL采用均热板与冷板一体化方案,打破原有“芯片封装后由ODM/EMS装配冷板”的分工模式,组装需与芯片封装深度协同以控制封装翘曲,需交由台积电或其CoWoS联盟伙伴完成,产业链责任边界需重新划分,台积电初期也倾向于与建鼎等熟悉半导体质量标准的均热板厂商合作,以降低验证与试错成本。 微通道盖板及其衍生技术为未来终极解决方案之一。我们认为针对未来功耗突破3500W的高端芯片(如英伟达VR300系列),MCL微通道封装盖方案将成为终极散热解决方案。

3.3.英伟达液冷价值量持续提升,ASIC市场空间巨大

液冷散热方案已成北美数据中心标配。以英伟达GB200和GB300为例,两款产品均通过托盘实现芯片与对应冷板的集成搭载,二者散热架构存在显著差异:GB200采用1颗CPU搭配2颗GPU共用单块大冷板的集成式散热方案;GB300则升级为单颗芯片独立对应一块小型冷板的分布式设计。交换芯片(Switch)环节,两款产品均配置18颗ASIC芯片,且均采用2颗ASIC芯片共用一块冷板的散热配置。据此测算,GB200冷板需求量为36块大冷板+9块大冷板,合计45块大冷板;GB300冷板需求量则为108块小型冷板+9块大冷板。 液冷价值量随芯片选代快速增加。根据测算,GB300相较GB200液冷价值量提升约23%,后续随着Rubin架构全面转向液冷及芯片升级,液冷价值量有望进一步提升。 ASIC液冷需求空间巨大。我们假设2025年液冷系统单价为5010元/KW,此后每年价值量同比提升20%。结合海外头部厂商2026年出货量预期及单ASIC功耗指标,经测算,2026年ASIC专用液冷系统市场规模预计达330亿元。

4.相关标的

本文标签
相关报告
本文标签 相关报告