冷热之间·全球数据中心散热技术白皮书
冷热之间
全球数据中心散热技术演进白皮书
风冷、单相液冷与两相液冷的战略抉择
─────────────────────────────────────────────────────
2026年4月
易成荟投研团队
1
目 录
执行摘要
第一章 引言:数据中心的散热挑战
第二章 风冷技术:成熟稳健的传统方案
第三章 单相液冷技术:高效散热的过渡选择
第四章 两相液冷技术:面向未来的革命性方案
第五章 技术对比分析:多维度战略评估
第六章 应用场景与选型建议
第七章 未来展望:技术演进路线图
结论
参考文献
执行摘要
随着全球数字化转型的深入推进,数据中心作为数字经济的基础设施,其能耗问题日益凸显。据国际能源署(IEA)统计,数据中心能耗占全球总用电量的比例已从2015年的约1%增长至2024年的约2%,其中散热系统占据了总能耗的30%至45%。在这一背景下,散热技术的创新与选择已成为数据中心可持续发展的关键因素。本白皮书系统梳理了当前数据中心主流散热技术——风冷、单相液冷与两相液冷的技术原理、发展历程、优势与挑战,并从性能效率、部署复杂度、总拥有成本(TCO)、可靠性与可维护性、环境适应性等多个维度进行深入对比分析。我们研究发现,三种技术并非简单的替代关系,而是在不同应用场景下各具优势的数据中心建设者需要根据自身业务特点、气候条件、预算约束和长期战略进行差异化选择。核心发现包括:第一,风冷技术凭借其成熟度和成本优势,仍将是中小规模数据中心和气候温和地区的首选方案;第二,单相液冷技术正在快速成熟,预计在未来五年内将成为中大型数据中心新建项目的标准配置;第三,两相液冷技术虽然面临技术成熟度和初始投资的挑战,但其卓越的散热性能使其成为高性能计算(HPC)和下一代AI训练集群的理想选择。我们建议数据中心决策者采取"分阶段、多元化"的技术路线图:短期内优化现有风冷系统效率,中期(3-5年)逐步部署单相液冷进行渐进式升级,长期(5-10年)根据业务需求和两相液冷技术的成熟度,战略性地引入两相液冷解决方案。指标 | 2024年数据 | 2030年预测 |
全球数据中心总能耗 | 460 TWh | 1000+ TWh |
散热系统能耗占比 | 35-45% | 30-40% |
平均PUE(先进数据中心) | 1.4-1.6 | 1.1-1.3 |
单机架平均功率密度 | 5-10 kW | 15-30 kW |
1.2 散热技术演进的驱动因素
1.2.1 芯片功耗持续攀升 处理器芯片的功耗密度持续攀升是推动散热技术演进的核心因素。从早期单核处理器的几瓦功耗,发展到如今高端AI芯片动辄数百瓦甚至上千瓦的热设计功耗(TDP),芯片功耗密度在二十年间增长了上百倍。NVIDIA H100 GPU的TDP达到700W,而下一代Blackwell架构GPU的TDP预计将超过1000W。1.2.2 PUE标准日趋严格 全球各国和地区对数据中心能效的要求不断提高。中国《数据中心能效限定值及能效等级》(GB 40879-2021)将数据中心的能效限定为3个等级,其中1级能效的PUE(Power Usage Effectiveness,电源使用效率)需低于1.2。欧盟《能源效率指令》要求新建大型数据中心到2027年达到PUE 1.3以下。1.2.3 绿色可持续发展要求 气候变化应对压力下,数据中心行业面临着实现净零排放的迫切要求。微软、谷歌、亚马逊等科技巨头已承诺2030年前实现数据中心的碳中和或100%可再生能源使用。这一承诺要求散热系统不仅要高效,还要尽可能利用自然冷源和可再生能源。第二章 风冷技术:成熟稳健的传统方案
2.1 技术原理与系统架构
2.1.1 风冷散热基本原理 风冷技术通过空气循环将服务器内部热量带走,是数据中心最传统也是应用最广泛的散热方式。典型的风冷系统由精密空调(CRAC)、空气处理单元(AHU)、冷热通道封闭系统和风扇组成。冷空气通过地板下静压箱送入服务器机柜前部,吸收热量后从机柜后部排出进入热通道,被精密空调冷却后循环使用。2.1.2 典型系统架构 现代数据中心风冷系统主要采用以下几种架构模式: (1)地板下送风 + 上回风:传统数据中心最常见的配置,冷空气从活动地板下的静压箱通过出风口进入冷通道,热空气从天花板回风管道返回空调。 (2)列间空调(In-Row Cooling):空调设备直接部署在机柜列间,与服务器并排放置,实现近距离精确制冷。(3)顶棚送风 + 地板回风:适用于层高较高或需要灵活布局的数据中心。 (4)模块化封闭冷热通道:通过物理隔离冷热气流,消除冷热空气混合损失。2.2 技术优势与成熟度
●技术成熟度高:风冷技术已有超过50年的应用历史,技术方案高度成熟可靠,运维人员经验丰富。●初始投资较低:相比液冷系统,风冷系统的设备和安装成本显著较低,ROI周期短。●部署灵活性强:风冷系统支持分期部署和快速扩容,可根据业务需求灵活调整。●维护简便:日常维护主要涉及过滤器更换和风机检修,无需处理液体泄漏风险。●兼容性良好:所有服务器和IT设备均支持风冷散热,不存在设备选型限制。2.3 现存挑战与优化方向
◆散热效率受限:空气的比热容和导热系数远低于液体,导致风冷系统的散热能力存在物理上限,难以应对日益增长的高功率密度需求。◆PUE改善困难:风冷系统的能效提升空间有限,在炎热气候条件下需要大量能耗用于冷却,即使采用先进冷通道封闭和精确送风技术,PUE也很难降至1.3以下。◆占地面积较大:精密空调系统需要占用大量机房空间,在土地资源紧张的地区经济性下降。◆噪声问题:大量风机运转产生较高噪声,对数据中心选址和运维环境有一定影响。2.4 先进风冷技术发展趋势
2.4.1 液冷热交换器(CDHX) 液冷热交换器是一种将服务器内部热量通过水-空气换热器传递到机房空气中的混合冷却方案。服务器内部采用液冷背板或冷板直接接触热源,而与外部环境的热交换仍通过空气进行。这种方案可以在不改造机房基础设施的情况下提升单机架散热能力30%-50%。2.4.2 变频精密空调 采用变频(EC)风机和电子膨胀阀的智能精密空调可根据机房实际热负载动态调节制冷能力,避免传统空调频繁启停造成的能效损失。与传统定速空调相比,变频精密空调可节能20%-35%。第三章 单相液冷技术:高效散热的过渡选择
3.1 技术原理与实现方式
3.1.1 单相液冷概念 单相液冷是指冷却液在散热过程中始终保持液态的热量传输方式。冷却液(通常为去离子水或专有乙二醇混合物)在泵驱动下循环流动,吸收服务器热量后温度升高,但不会发生相变(沸腾或凝结),热量通过换热器传递到环境或冷却塔。单相液冷是当前应用最广泛的液冷技术路线。(1)冷板式液冷(Cold Plate):在服务器CPU、GPU等高功耗芯片表面安装金属冷板,冷却液在冷板内部流道中循环直接接触芯片散热。单相冷板液冷是目前最成熟的单相液冷方案,已被谷歌、微软等大规模部署。(2)浸没式液冷(Immersion Cooling):将整个服务器完全浸入介电冷却液中,利用液体的高比热容直接吸收所有热量。浸没式方案散热能力最强,但初期投资和运维复杂度较高。(3)机柜级液冷:冷却门(Cooling Door)安装在机柜后部,内置换热器回收热通道空气热量,液体在门内循环后送至冷却塔或干冷器进行散热。3.2 技术优势分析
●散热效率显著提升:液体比热容约为空气的3500倍,导热系数约为空气的25倍,可有效支持30kW以上单机架功率密度。●PUE明显改善:单相液冷可将数据中心PUE降至1.1-1.2区间,相比先进风冷系统节能40%-60%。●支持高功率芯片:可直接应对TDP 500W以上的AI芯片和GPU,满足HPC和AI训练需求。●降低空调能耗:大部分热量通过冷却液直接带出机房,减少对精密空调的依赖。●环境适应性增强:在炎热气候条件下仍可保持良好散热性能,减少对自然冷源的依赖。3.3 部署挑战与应对策略
3.3.1 基础设施改造 单相液冷系统需要在数据中心基础设施层面进行管路预埋、泵站建设、冷却塔或干冷器配置等改造。存量数据中心改造面临施工难度大、周期长、成本高的问题。建议采用分期改造策略,优先在新建模块或高密度区域部署液冷,逐步扩展至全数据中心覆盖。3.3.2 运维复杂度提升 液冷系统运维需要专业技能,包括冷却液化学管理、泵站监控、泄漏检测等。建议建立完善的运维管理体系,配置在线监测设备,制定泄漏应急预案,并定期进行运维人员培训。3.3.3 设备兼容性 并非所有服务器和IT设备都原生支持液冷散热。选择液冷方案时需要确保主要计算设备具备液冷接口,或通过冷板适配器等方式实现兼容。OEM服务器通常提供液冷预配置选项。3.4 典型应用案例
评估维度 | 风冷技术 | 单相液冷 | 两相液冷 |
PUE水平 | 1.4-1.6 | 1.1-1.3 | 1.05-1.15 |
单机架密度 | 5-20 kW | 30-100 kW | 100-500 kW |
初始投资 | 低 | 中 | 高 |
运维复杂度 | 低 | 中 | 高 |
技术成熟度<o:page> | ★★★★★ | ★★★★☆ | ★★★☆☆ |
气候适应性 | 较弱 | 强 | 强 |
5.2 能效与PUE分析
5.2.1 PUE表现对比 三种散热技术的PUE表现差异显著:(1)风冷系统:先进风冷数据中心PUE通常在1.4-1.6之间,温和气候下可达1.2-1.4,但炎热气候下可能超过2.0。(2)单相液冷:采用单相液冷的数据中心PUE普遍在1.1-1.3之间,结合自然冷源利用可降至1.05-1.1。(3)两相液冷:理论上两相液冷可使PUE降至1.05以下,实际部署中可稳定达到1.1左右,能效优势明显。(1)风冷系统:单机架散热能力通常在5-20kW,高密度风冷方案可达30kW,但受限于空气物性,提升空间有限。(2)单相液冷:单机架散热能力可达30-100kW,冷板式方案典型值为30-50kW,浸没式可达100kW以上。(3)两相液冷:单机架散热能力理论上可达100-500kW,受限于芯片功耗密度和系统设计。5.3 总体拥有成本(TCO)分析
场景特征 | 风冷 | 单相液冷 | 两相液冷 |
数据中心规模 | ★★★★ | ★★★ | ★★ |
单机架密度>30kW | ★★ | ★★★★★ | ★★★ |
单机架密度>100kW | ★ | ★★ | ★★★★★ |
预算敏感项目 | ★★★★★ | ★★★ | ★★ |
AI/HPC应用 | ★★ | ★★★★ | ★★★★★ |
寒冷气候 | ★★★★★ | ★★★★ | ★★★ |
炎热潮湿气候 | ★★ | ★★★★★ | ★★★★ |
6.2 不同规模数据中心的选型策略
6.2.1 小型数据中心(<1MW) 对于装机容量1MW以下的小型数据中心,我们建议优先选择风冷技术方案。风冷系统的低初始投资和成熟运维体系非常适合规模较小、运维能力有限的用户。同时,可考虑部署液冷热交换器(CDHX)作为过渡方案,在控制投资风险的前提下提升散热能力。6.2.2 中型数据中心(1-10MW) 中型数据中心是单相液冷的理想应用场景。这一规模的用户通常具备一定的专业运维能力,能够承担液冷系统的管理要求。建议采用"风冷为主、液冷为辅"的混合策略,在高密度计算区域部署单相液冷,普通负载区域保持风冷,实现整体PUE优化。6.2.3 大型/超大型数据中心(>10MW) 对于10MW以上的超大规模数据中心,建议全面采用单相液冷技术以实现最优能效。新建项目应在规划阶段即确定液冷技术路线,进行系统性的基础设施设计。对于承担高性能计算或AI训练任务的专业数据中心,可考虑在核心计算区域试点部署两相液冷系统。6.3 气候条件对选型的影响
6.3.1 温和气候地区 北欧、加拿大、新西兰等温和气候地区的数据中心可充分利用自然冷源,全年大部分时间可使用外部冷空气进行免费冷却。建议这类地区优先选择能充分利用自然冷源的风冷或液冷方案,PUE目标可设定为1.15-1.25。6.3.2 炎热干旱地区 中东、北非等炎热干旱地区的自然冷源条件较差,但干球温度低的特点使得蒸发冷却和干冷器效率较高。单相液冷是这类地区的最佳选择,可显著减少对水资源的消耗,同时保持良好的散热性能。6.3.3 炎热潮湿地区 东南亚、中国华南等炎热潮湿地区的数据中心面临严峻的散热挑战,自然冷源利用受限。建议这类地区全面部署单相液冷系统,并尽可能利用夜间低温时段进行自然冷却,PUE目标设定为1.25-1.35。6.4 分阶段实施路线图
6.4.1 短期(1-2年)
(1)优化现有风冷系统:部署变频空调、智能通道封闭、精确气流管理,挖掘现有系统节能潜力。(2)开展液冷试点:在部分高密度区域部署单相液冷,积累运维经验。(3)制定长期散热策略:基于业务发展规划,制定3-5年散热技术路线图。6.4.2 中期(3-5年)
(1)扩大液冷覆盖:根据试点经验,逐步将单相液冷扩展至数据中心主要负载区域。(2)基础设施升级:完成泵站、冷却塔/干冷器、管路系统的建设和升级。 (3)运维能力建设:建立专业的液冷运维团队,完善运维流程和应急预案。6.4.3 长期(5-10年)
(1)技术迭代升级:关注两相液冷技术成熟度,在适当时机引入两相液冷系统。(2)持续优化能效:结合AI运维、数字化孪生等技术,持续优化散热系统运行策略。(3)探索新技术:关注热回收、液冷废热利用等新兴技术方向。第七章 未来展望:技术演进路线图
7.1 技术发展趋势预测
7.1.1 风冷技术的智能化演进 尽管液冷技术持续发展,风冷技术并不会快速退出历史舞台。未来五年,风冷技术将朝着智能化方向深度演进:(1)AI驱动的自适应控制:基于机器学习算法的精密空调控制系统可根据实时气象数据、负载预测动态优化制冷策略,实现PUE的实时最优。(2)高密度风冷极限优化:通过更精确的气流组织设计、EC风机优化和芯片级液冷附件,风冷系统单机架密度将提升至40-50kW。(3)余热回收利用:开发基于热泵技术的风冷数据中心废热回收系统,将IT设备发热转化为区域供暖或工业用热。7.1.2 单相液冷的标准化与普及 未来五年,单相液冷技术将经历从定制化向标准化、从示范应用向大规模普及的关键转变:(1)接口标准化:行业将建立统一的服务器液冷接口标准(如OCP Ozonia规范),降低液冷系统的部署复杂度和供应链风险。(2)模块化设计:液冷系统将采用模块化设计理念,支持按需分期部署和灵活扩容,降低用户投资门槛。(3)运维自动化:开发基于数字孪生的液冷系统运维平台,实现冷却液状态监测、故障预测和自动运维。7.1.3 两相液冷的产业化突破 展望2030年,两相液冷有望迎来产业化突破: (1)技术成熟度提升:随着芯片功耗持续攀升和HPC需求的爆发,两相液冷的技术价值将充分显现,推动产业界加大研发投入。(2)成本下降:规模化生产和供应链成熟将使两相液冷系统的单位成本显著下降,预计2030年成本将降至2026年的50%-60%。(3)生态系统完善:两相液冷将与芯片、系统、基础设施形成完整的产业生态系统,降低用户采用风险。7.2 交叉技术融合创新
7.2.1 浸没式与两相液冷的融合 浸没式液冷与两相技术的融合是值得关注的技术方向。将两相沸腾原理应用于浸没式架构,可同时发挥浸没式的高换热面积和两相的高换热系数优势,实现更极致的散热性能。7.2.2 热回收与循环经济 数据中心散热系统的废热回收将成为行业热点。将液冷系统的高品质余热(40-60°C)通过热泵提升后用于区域供暖、农业温室或海水淡化,不仅可创造经济效益,更能显著改善数据中心的环保形象。7.3 产业格局演变
7.3.1 供应链重构 液冷技术的普及将重构数据中心供应链格局。传统精密空调厂商、服务器ODM、芯片原厂和液冷专业厂商将形成新的合作关系,推动液冷技术标准化和产业化进程。7.3.2 服务模式创新 液冷系统的复杂性和专业运维需求将推动服务模式创新。预计将出现提供液冷系统"即服务"(Cooling-as-a-Service)的专业运营商,帮助用户降低液冷技术的采用门槛。结 论
核心结论
数据中心散热技术正处于深刻变革期。从风冷到液冷、从单相到两相的技术演进,反映了行业对更高能效、更高密度、更强可持续性的不懈追求。三种散热技术各具特色、相互补充:风冷技术成熟稳健、经济高效,适合中小规模和温和气候场景;单相液冷技术性能优异、过渡平滑,是当前数据中心升级的主流选择;两相液冷技术代表了散热性能的未来方向,但尚需时间走向成熟。我们建议数据中心决策者采取渐进式、差异化的技术路线图:短期优化现有风冷系统、中期扩大单相液冷覆盖、长期战略引入两相液冷。这种分阶段策略可有效控制投资风险,同时保持技术前瞻性。散热技术的选择不应孤立进行,而应纳入数据中心的整体战略规划。需要综合考虑业务需求、地理条件、预算约束、运维能力等多重因素,制定与长期战略相匹配的技术路线图。展望未来,数据中心散热技术将与芯片、系统、建筑、能源等其他领域深度融合,催生浸没式两相液冷、热回收循环经济、智能运维等创新方向。把握这些趋势,将为数据中心运营商在激烈竞争中赢得先机。参考文献
[1] International Energy Agency (IEA). Data Centers and Data Transmission Networks. Paris: IEA Publications, 2024.
[2] ASHRAE. Thermal Guidelines for Data Processing Environments. 4th ed. Atlanta: ASHRAE, 2021.
[3] Synergy Research Group. Global Data Center Market Analysis Report. Q4 2024.
[4] Uptime Institute. Global Data Center Survey 2024.
[5] 中国国家标准 GB 40879-2021《数据中心能效限定值及能效等级》.
[6] Open Compute Project Foundation. OCP Accepted Specifications v3.0. 2024.
[7] NVIDIA Corporation. NVIDIA H100 Tensor Core GPU Architecture. 2024.
[8] Masanet, E., et al. Recalibrating Global Data Center Energy-Use Estimates. Science, 2020, 367(6481): 984-986.
[9] European Commission. Commission Delegated Regulation (EU) 2023/2854 on Data Centres. 2023.
[10] 高性能计算系统液冷技术白皮书. 中国电子学会, 2025.