摘要
2025 年,#全球算力产业 正处于爆发式增长的关键节点。根据最新数据,中国智能算力规模预计达到 1037.3 EFLOPS,同比增长 43%,远超通用算力 20% 的增幅。全球 AI 算力市场规模突破 1.2 万亿美元,预计 2030 年将达到 5.8 万亿美元,年复合增长率高达 37.6%。
技术创新方面,光模块正从 400G 向 800G 快速迁移,1.6T 技术进入商用元年,CPO(光电共封装)技术预计 2026 年开始商用。国产 AI 芯片实现重大突破,寒武纪 2025 年前三季度营收同比增长 2386%,海光 DCU 出货量同比增长 210%。
绿色低碳成为必然趋势,国家要求 2025 年数据中心平均 PUE 降至 1.5 以下,新建大型数据中心 PUE 须降至 1.25 以内。液冷技术渗透率从 15% 提升至 30%,市场规模预计达到 196.3 亿元。
一、算力产业发展现状与基础
1.1 全球算力市场规模与结构分析
2025 年,全球算力市场正经历前所未有的扩张。根据 IDC 最新数据,2025 年全球 AI 算力市场规模达到 1.21 万亿美元,较 2024 年的 8900 亿美元增长 35.9%。这一增长速度远超传统 IT 基础设施,反映出人工智能技术对算力需求的爆发式增长。
从算力结构来看,智能算力正成为市场增长的核心驱动力。预计 2025 年全球总算力将达到 3300 EFLOPS,其中智能算力占比高达 60%,成为核心引擎。在 AI 算力需求方面,2025 年全球 AI 模型训练与推理的算力需求达到 650 EFLOPs,较 2023 年增长 5 倍,其中多模态模型贡献了 60% 的算力增量。
值得注意的是,不同机构对算力增长的预测存在较大差异。IDC 预测 2025 年全球智能算力增速为 87%,而摩根士丹利更为乐观,认为训练算力将增长 10 倍。这种差异主要源于对 AI 应用场景扩展速度和技术突破时间节点的不同判断。
从地域分布来看,中国已成为全球最大的 AI 算力需求国,占全球市场份额的 38%。美国凭借在超算领域的传统优势,仍占据技术制高点,在 2025 年 6 月发布的第 65 届 TOP500 超级计算机榜单中,美国的 El Capitan、Frontier 和 Aurora 占据前三位。欧洲通过 JUPITER Booster 超算的突破,首次跻身全球前四,显示出强劲的追赶势头。
1.2 中国算力产业发展水平评估
中国算力产业在 2025 年展现出强劲的发展势头,整体规模和技术水平都实现了重大突破。根据《2025 年中国人工智能计算力发展评估报告》,2024 年中国通用算力规模达到 71.5 EFLOPS,同比增长 20.6%;智能算力规模达到 725.3 EFLOPS,同比增长 74.1%。2025 年,中国通用算力规模预计达到 85.8 EFLOPS,增长 20%;智能算力规模将达到 1037.3 EFLOPS,增长 43%,远高于通用算力增幅。
从基础设施建设来看,截至 2025 年 6 月底,我国在用算力中心标准机架达到 1085 万架,智能算力规模达到 788 EFLOPS(FP16 半精度)。"东数西算" 工程取得重大进展,八大国家枢纽节点已建成智算规模 62 万 PFlops,约占全国智算总量的 80%。这些枢纽节点不仅在规模上领先,在能效方面也达到了国际先进水平,西部节点 PUE 均值已降至 1.15 以下。
在大模型发展方面,中国取得了举世瞩目的成就。截至 2025 年 6 月底,我国已发布 1509 个大模型,在全球已发布的 3755 个大模型中数量位居首位。这一数字不仅体现了中国在 AI 领域的创新能力,也反映出庞大的算力需求正在形成。
从产业布局来看,中国算力产业呈现出明显的区域集聚特征。北京、杭州、上海在 2024 年中国人工智能城市排行榜中位列前三,深圳、广州、南京、成都、济南、天津、厦门进入前十。这些城市不仅是算力基础设施的主要聚集地,也是 AI 应用创新的重要源头。
在技术创新方面,中国企业在多个关键领域实现了突破。寒武纪、海光信息、壁仞科技等国产 AI 芯片企业快速崛起,2025 年国产芯片在数据中心市场的渗透率预计达到 30%,2030 年有望突破 40%。华为推出的昇腾 384 超节点,算力总规模达 300PFLOPS,展现了中国在高端算力领域的技术实力。
1.3 算力需求驱动因素分析
算力需求的爆发式增长源于多重因素的叠加效应,其中人工智能技术的快速发展是最核心的驱动力。大模型和生成式人工智能的兴起,对算力提出了前所未有的需求。以 GPT-5 为代表的新一代大模型,上下文窗口扩展至 400K Tokens,模型参数规模达到万亿级别,单次训练需要消耗数千个 GPU 长达数月时间。
从应用场景来看,智能驾驶、工业 AI、医疗影像三大场景贡献了 62% 的算力消耗。在智能驾驶领域,随着 L3 及以上高阶自动驾驶的加速普及,车载计算平台对算力的需求呈指数级增长。2025 年中国 L2 + 及以上级别智能驾驶新车渗透率突破 45%,对应芯片市场规模有望突破 600 亿元。
工业 AI 的广泛应用也成为算力需求的重要来源。在智能制造领域,AI 技术被广泛应用于设备预测性维护、生产流程优化、质量检测等环节。某制造企业部署的 AI 质检系统,将缺陷识别准确率提升至 99.8%,同时降低了 60% 的人工成本。这种效率提升背后,是大量算力资源的支撑。
医疗健康领域的 AI 应用同样呈现爆发式增长。AI 辅助诊断系统将早期肺癌检出率提高 40%,个性化治疗方案推荐系统使白血病治愈率提升 18%。在新药研发方面,AI + 量子计算将化合物筛选效率提升 1000 倍,某药企借助生成式 AI 完成新冠特效药的分子设计,研发周期缩短至 9 个月。
元宇宙和数字孪生技术的兴起,也带来了巨大的算力需求。根据 IDC 报告,2025 年全球元宇宙相关算力需求将突破 1.2 ZFLOPS,相当于当前全球数据中心总算力的 1000 倍。实时渲染、物理仿真、智能交互等技术都需要强大的算力支撑。
云计算和边缘计算的融合发展,进一步放大了算力需求。随着 5G 网络的全面普及和物联网设备的爆发式增长,云边端协同的计算模式成为主流。2025 年全球边缘算力服务器部署量预计达到 1200 万台,形成与中心云算力平分秋色的格局。
1.4 算力供给侧能力现状
中国算力供给侧在 2025 年展现出强大的建设能力和技术水平。从投资规模来看,算力基础设施建设进入了前所未有的高峰期。2025 年第一季度,中国大陆共有 165 个智算中心项目出现新动态,128 个项目总规划投资总额超过 4300 亿元。全年来看,有规划投资额统计的 191 个项目,总规划投资额达到 6755.09 亿元;有算力规划统计的 141 个项目,总规划算力规模为 1,389,527P。
从供给结构来看,中国已形成了通用算力、智能算力、超级算力多元化的供给体系。在通用算力方面,以 x86 架构为主的服务器仍是市场主流,国产化率不断提升。在智能算力方面,GPU、NPU、ASIC 等专用芯片快速发展,国产 AI 芯片在 2025 年实现了重大突破。在超级算力方面,中国虽然在 TOP500 榜单上的数量有所减少,但在 E 级超算技术方面取得了重要进展。
运营商在算力供给中发挥着主力军作用。中国移动建成 13 个全国性、区域性智算中心节点,智算规模超 43 EFLOPS,算力服务器规模超 100 万台。中国联通 2025 年通用服务器集采预算达 79.63 亿元,国产算力占比超九成。中国电信中部智算中心完成扩容,算力规模超 2000P,总投资超 50 亿元。
互联网企业也在大规模投资算力基础设施。阿里巴巴宣布未来三年将投入 3800 亿元用于云和 AI 基础设施建设,总额超过去十年总和。字节跳动、腾讯、百度等企业都在加速建设自有算力中心,以满足自身业务发展和对外服务的需求。
从技术能力来看,中国在算力供给侧的自主创新能力显著增强。在芯片设计方面,寒武纪、海光信息等企业的 7nm 级 AI 芯片已进入量产阶段。在服务器制造方面,浪潮、华为等企业在技术自主(AI / 芯片)、绿色算力(液冷)、边缘场景三大方向引领创新。在数据中心建设方面,中国企业在液冷技术、高密度部署等领域达到了国际先进水平。
然而,算力供给侧也面临一些挑战。首先是结构性失衡问题,通用算力相对过剩,而高端智能算力严重短缺。企业级通用算力中心利用率仅 10%-15%,部分智算中心 GPU 利用率不足 30%,而支撑大模型训练的高端算力缺口却高达 40%。其次是技术自主性有待提升,在高端芯片、操作系统、工具链等关键领域仍存在短板。最后是能效压力日益增大,随着算力密度的不断提升,如何在保证性能的同时实现绿色低碳发展,成为亟待解决的问题。
二、技术创新驱动算力性能提升
2.1 硬件技术创新进展
2.1.1 光模块技术演进路径
光模块作为数据中心 "血管",其技术演进直接决定了算力基础设施的性能上限。2025 年,光模块技术正处于从 400G 向 800G 快速迁移的关键时期,同时 1.6T 技术也已开始布局。
800G 光模块在 2025 年迎来了爆发式增长。根据行业数据,2025 年是 800G 光模块需求的高峰年,全球出货量预计达到 1800-1990 万只,同比增长 100%。这一增长主要由北美云厂商(谷歌、微软、亚马逊)和中国互联网巨头(字节跳动、阿里巴巴、腾讯)驱动。800G 光模块采用 PAM4 调制技术和先进的数字信号处理器,能够在单通道 100G 或 200G 的基础上,通过 8 通道或 4 通道集成实现 800G 的总带宽。
1.6T 光模块在 2025 年进入商用元年。头部厂商的良率已提升至 80% 以上,支撑规模化交付。1.6T 技术的成熟标志着光模块进入了新的代际,预计在 2026 年开始放量,2027 年将成为市场主力。从技术路线来看,1.6T 光模块将采用更先进的硅光集成技术,在功耗和成本控制方面实现突破。
展望未来,光模块技术将遵循 "800G→1.6T→3.2T" 的代际节奏演进。3.2T 技术预计在 2028-2029 年开始放量,但需要配合新一代 CPU 架构才能实现规模化应用。这种速率升级不仅提升了数据传输能力,也为 AI 大模型训练、超算渲染等高性能计算场景提供了必要的基础设施支撑。
2.1.2 CPO 技术发展前景
CPO(Co-Packaged Optics,光电共封装)技术代表了光通信领域的革命性创新,通过将光学元件直接集成到芯片封装中,显著提升数据传输速率并降低功耗,成为满足 AI 算力需求的关键方案。
CPO 技术的核心优势在于其颠覆性的架构设计。传统的可插拔光模块存在较长的电互连路径,导致信号衰减和功耗增加。CPO 通过将光引擎和 ASIC 芯片紧密集成在同一个封装内,极大缩短了电信号传输距离,实现了高带宽、低功耗、低延迟的新型互连技术。根据 LightCounting 预测,CPO 端口出货量将于 2024-2025 年启动商用,并在 2026 年后规模放量,预计到 2027 年全球光模块(含 1.6T 规格)需求将达到 1 亿只。
从技术发展路径来看,CPO 技术预计将从 2026 年开始商用,2027 年进入大规模生产。这一时间节点与 1.6T 光模块的放量期高度吻合,预示着 CPO 将成为下一代光通信的主流技术。在应用场景方面,CPO 特别适合 AI 训练集群、超算中心等对带宽和功耗要求极高的场景。
中国企业在 CPO 技术研发方面进展迅速。华为、中兴、海信等企业都在积极布局 CPO 技术,部分企业已完成原型验证。随着技术成熟度的提升和成本的下降,CPO 有望在 2027 年后实现大规模商用,为中国算力基础设施的性能提升提供关键支撑。
2.1.3 先进制程与封装技术突破
芯片制程工艺的进步是算力性能提升的根本驱动力。2025 年,全球半导体产业正处于从 3nm 向 2nm 技术节点转换的关键时期。台积电的 3nm(N3P)工艺良率已达 90% 以上,成为苹果 M4、英伟达 H200 等旗舰芯片的核心供给来源。更重要的是,台积电计划在 2025 年下半年开始量产 2nm(N2)工艺,这是台积电从 FinFet 架构转向 GAA(全环绕栅极)架构的第一个制程节点,将导入纳米片晶体管技术。
三星在先进制程方面也取得了重要进展。其 3nm 良率已从初期的不足 20% 提升至 60%-70%,并计划在 2025 年量产第二代 3nm 工艺(SF3P),性能提升 12%、功耗降低 30%。同时,三星的 2nm 制程 SF2 预计在 2025 年量产,同样采用 GAA 架构,并规划引入背面供电技术。
先进封装技术的创新同样重要。Chiplet(芯粒)技术通过模块化设计方法,将大型芯片拆分成多个小型模块,各个模块可以并行设计和制造,既减小了设计难度,又加快了芯片研发进程。AMD 的 MI300X 通过 5 个 Chiplet 组合实现了能效比提升 25%,预计 2025 年将带动全球 AI 芯片市场 30% 的份额增长。
在封装产能方面,台积电的 CoWoS 封装产能在 2025 年目标翻倍至 20 万片 / 月,以满足 AI 芯片的巨大需求。这种产能扩张不仅支撑了英伟达等国际巨头的产品迭代,也为中国 AI 芯片企业提供了重要的代工支持。
2.1.4 国产 AI 芯片技术突破
2025 年是中国 AI 芯片产业实现历史性突破的关键年份。以寒武纪、海光信息、壁仞科技为代表的国产 AI 芯片企业,在技术创新和市场应用方面都取得了重大进展。
#寒武纪 作为国产 AI 芯片的领军企业,2025 年的业绩表现堪称 "炸裂"。第三季度营收达到 17.27 亿元,同比增长 1332.52%,净利润 5.67 亿元;前 9 个月累计营收 46.07 亿元,同比增长 2386.38%。这种爆发式增长背后,是产品竞争力的全面提升。寒武纪的思元 590 在 2025 年上半年中标率达到 37%,单卡吞吐量超 800FPS,能耗比优于国际竞品。更重要的是,寒武纪计划在 2026 年量产 5nm 思元 690,FP16 算力将冲击 1000TOPS,剑指全球第一梯队。
海光信息在通用计算和 AI 加速领域都表现出色。2025 年上半年,海光 DCU 出货量同比暴涨 210%,某头部电商平台为支撑 "618"AI 推荐系统,一次性采购了 1.2 万台海光 AI 服务器,替代了原本计划采购的英伟达 A100 服务器。这一案例充分说明了国产 AI 芯片在实际应用中的竞争力。
壁仞科技专注于高性能 AI 训练芯片,其产品在 FP32、FP16、INT8 等精度下算力指标领先,尤其擅长大规模模型训练。壁仞科技的 BR 系列芯片已在多个超算中心和智算中心实现部署,为大模型训练提供了强大支撑。
从技术路线来看,国产 AI 芯片呈现出差异化发展的特点。海光走软硬协同的通用路线,与服务器厂商深度绑定;寒武纪在低功耗、低延迟的边缘场景表现稳定;壁仞则专注于高性能训练级产品。这种差异化定位不仅避免了同质化竞争,也为不同应用场景提供了最优解决方案。
在生态建设方面,国产 AI 芯片企业正在加速构建自主可控的软件栈。寒武纪的 CANN、海光的 DeepSea 等软件平台不断完善,为开发者提供了便捷的开发环境。同时,国产 AI 芯片在兼容性方面也取得突破,磐久 128 超节点 AI 服务器实现了多芯片兼容与开放架构,有望在多元化算力供给下提升 GPU 的部署效率。
2.2 软件技术创新趋势
2.2.1 算力调度技术发展
算力调度技术是实现算力资源高效利用的关键,特别是在异构算力环境下,如何实现资源的智能调配成为技术创新的重点。2025 年,算力调度技术呈现出智能化、精细化、自动化的发展趋势。
从调度策略来看,现代算力调度系统采用多层次、多维度的调度机制。基于实时资源状态的调度能够根据 CPU、GPU 等异构节点的实时可用资源情况进行动态调配;基于任务优先级的调度则结合应用任务的状态和需求,与底层异构算力的状态和属性进行智能匹配;指定异构算力节点或集群的定向调度,能够根据算力标识进行精准的资源分配。
在技术架构方面,新一代算力调度系统采用分层解耦设计。业务层负责接收任务并转化为调度指令,管控层协同调度各类资源,资源层整合异构计算资源,三层协作形成闭环调度体系。这种架构设计不仅提高了系统的灵活性和可扩展性,也为跨域、跨平台的算力协同提供了技术基础。
全局池化调度成为 2025 年算力调度技术的重要创新方向。通过统一抽象 "三异"(异构、异地、异主)资源,提供无差别使用体验,构建算力网生态,实现 "像用水用电一样用算" 的愿景。这种技术特别适用于企业大模型后训练场景,能够将分散在不同地域、不同架构的算力资源统一管理和调度。
在实际应用中,算力调度技术已经取得了显著成效。中国移动的算网大脑 3.0 在京津冀、长三角等 4 个枢纽级、区域级算力节点落地,特别是在 "长三角芜湖集群" 打造了全国首个 "四算合一"(超算、智算、通算、量算)的国家枢纽算力调度平台。该平台并网 21 家智算中心、3 家国家级超算中心、3 家量算中心,实现了算力资源的统一调度和高效利用。
2.2.2 异构计算技术进展
异构计算通过整合 CPU、GPU、FPGA 及 ASIC 等多元计算单元,成为突破算力瓶颈的核心方案。数据显示,异构架构可将资源利用率提升 30%,并通过定制化任务调度实现能效优化,其中 ASIC 芯片在推理场景下的能效表现尤为突出。
2025 年,异构计算技术在多个方面实现了重要突破。在硬件层面,Chiplet 异构集成技术日趋成熟,能够通过模块化设计突破单一制程的性能限制。AMD 的 MI300X 通过 5 个 Chiplet 组合实现了能效比提升 25%,这种设计思路正在被广泛采用。同时,存算一体架构的兴起为突破内存墙限制提供了新的解决方案,通过将计算单元和存储单元集成在一起,大幅减少数据搬运开销。
在软件层面,异构计算的编程模型和工具链不断完善。针对不同厂商异构芯片的算力、显存、互连带宽的差异性,业界采用细粒度显存优化技术,如 SelectiveRecompute、AsyncOffload 以及异构 TP(不同流水 Stage 采用不同的 TP 策略)等,在流水调度层面取长补短、深度调优。
在应用优化方面,异构计算正在 AI 训练和推理场景中发挥越来越重要的作用。通过 PP(Pipeline Parallelism)流水线异构并行拆分策略,能够根据不同芯片的特性进行任务分配,实现负载均衡。同时,异构并行自动寻优机制能够动态调整拆分策略,找到最优的组合方案。
展望未来,异构计算将朝着更加智能化、自动化的方向发展。端侧 MoE(Mixture of Experts)模型与算力交易市场的结合,将推动 AI 技术的普惠化发展。通过智能调度和动态资源分配,即使是资源有限的边缘设备也能够享受到强大的算力服务。
2.2.3 存储技术创新
存储技术的创新对于释放算力潜力至关重要,特别是在 AI 时代,海量数据的快速存取成为性能瓶颈。CXL(Compute Express Link)技术的兴起为解决这一问题提供了革命性方案。
CXL 技术基于 PCIe 5.0 物理层构建,通过内存扩展、内存共享和缓存一致性三大核心能力,正在重塑数据中心架构。在内存扩展方面,CXL 技术能够将内存容量提升至本地内存的 10 倍以上,同时延迟远低于 SSD。三星推出的 CXL DRAM 设备(如 CMM-D)通过 Type 3 模式实现了这一突破,成为理想的内存池化解决方案。
内存池化架构的优势在于能够实现资源的高效利用。通过 CXL Switch 技术,多台服务器可以共享访问一个统一的内存地址空间,大幅提升内存利用率。阿里云推出的磐久 CXL 内存池化服务器,是业界首个基于 CXL Switch 的内存池业务系统解决方案,包含 4 台 2U 通用计算服务器、自研的 CXL Switch Box 以及内存节点(JBOM),通过 CXL 连接实现了高性能的内存池化系统。
在实际应用中,CXL 内存池化技术已经展现出巨大价值。PolarDB 引入 CXL 高速互连技术,基于 CXL 的分布式内存池解决方案,实现了延迟低至百纳秒级、带宽吞吐达到数 TB/s 的远程内存访问。这种性能提升对于 AI 训练、数据库查询等对内存访问敏感的应用来说意义重大。
浪潮信息的元脑服务器 CXL 内存池化方案同样值得关注。该方案以内部高性能 CXL 交换单元为核心,解耦重构服务器存储架构,实现内存资源重组与异步迭代。通过创新设计的内存管理引擎,能够灵活配置调整系统拓扑方案,实现内存资源按需扩展。同时,基于元脑 KeyarchOS 服务器操作系统集成的智能化内存分层功能,能够自动识别、迁移、监控冷热数据,实现内存细粒度分层应用。
2.2.4 网络技术演进
网络技术的演进直接影响着算力的互联效率和整体性能。在 AI 时代,传统的网络架构已经难以满足高性能计算的需求,因此 InfiniBand 和以太网两大技术路线的竞争日趋激烈。
InfiniBand 作为专为高性能计算设计的互连标准,在低延迟方面具有天然优势。其端到端延迟可低至 0.5-1 微秒,而传统以太网为数十至数百微秒。InfiniBand 支持 NDR 400Gbps(单端口)、HDR 200Gbps,未来将演进至 XDR 800Gbps,通过链路聚合可达更高速率。更重要的是,InfiniBand 实现了零拷贝传输,数据直接从应用内存传输至目标设备,无需 CPU 参与,节省 90% 以上 CPU 资源。
然而,以太网凭借其成本优势和生态开放性正在快速追赶。2025 年,以太网通过 RDMA(Remote Direct Memory Access)技术显著降低了延迟,RoCE v2 的延迟已降至 5 微秒左右,接近 InfiniBand 的 2 微秒水平。同时,以太网在大集群组网方面展现出优势,仅需两层结构,规模可达 InfiniBand 的 4 倍,整体功耗更低,交换机数量少 3 倍。
超级以太网联盟(UEC)的成立标志着以太网在 AI 领域的雄心。Broadcom 推出的业界首款符合 UEC 标准的 800GbE AI 以太网网络接口卡 Thor Ultra,展现了以太网在 AI 场景的竞争力。与 InfiniBand 相比,超级以太网体系在兼容性、可扩展性和生态开放性上具有明显优势。
在实际应用中,网络技术的选择需要综合考虑多个因素。对于训练场景,InfiniBand 当前仍占优势,但以太网通过技术优化正在快速追赶;对于推理场景,以太网因其与前端网络的兼容性和多租户支持能力而更受青睐。未来,随着技术的不断进步,两种技术可能会在不同场景中形成互补关系。
2.3 能效技术创新方向
2.3.1 液冷技术规模化应用
液冷技术作为解决高密度算力散热问题的关键技术,在 2025 年迎来了规模化应用的爆发期。随着 AI 服务器功率密度的不断提升,传统风冷已难以满足散热需求,液冷技术凭借其高效散热能力成为必然选择。
从市场渗透率来看,液冷技术正在经历快速增长。2025 年最新数据显示,全球 AI 服务器液冷渗透率已经从去年的 15% 涨到 30%,国内头部云服务商的新建数据中心,一半以上都采用了液冷技术。在 "东数西算" 工程中,八大枢纽节点中有五个明确鼓励采用液冷技术,宁夏中卫、甘肃庆阳等地的新建数据中心项目液冷渗透率已达到 35% 以上,较 2023 年提升近 15 个百分点。
从技术路线来看,液冷主要分为冷板式液冷和浸没式液冷两大类。冷板式液冷因兼容性强、改造成本低,在 2024 年占据约 68% 的市场份额,是当前主流技术路线;浸没式液冷虽然部署复杂、初期投入较高,但其散热效率可达 95% 以上,特别适用于 GPU 密集型 AI 训练集群。
市场规模方面,2025 年中国数据中心液冷解决方案市场规模预计达到 196.3 亿元,同比增长 41.7%。预计 2026 年国内液冷市场规模将达 113 亿元,2027 年进一步增长至 238 亿元,两年内实现翻倍增长。这种爆发式增长反映了市场对高效冷却方案的迫切需求。
在实际应用案例中,液冷技术已经展现出卓越的性能。马来西亚气象局数据中心为满足增加 27 倍的算力需求,配置了联想的冷板式液冷设备,应用后散热效果高达 90%,有力支持了气象预测的精度提升。Meta AI 实验室采用浸没式液冷,GPU 集群温度波动小于 2℃,训练中断率下降 70%。
中国企业在液冷技术创新方面表现出色。中科曙光旗下子公司曙光数创在 2024 年实现液冷产品营收超过 28.6 亿元,同比增长 51.2%,其自主研发的相变液冷技术已在中科院多个超算中心成功部署,PUE 最低可达 1.04。#浪潮信息 推出的全栈液冷解决方案,涵盖服务器、机柜、数据中心级冷却系统,2024 年液冷产品出货量同比增长超过 70%。
2.3.2 AI 驱动的能效优化
AI 技术不仅是算力需求的主要驱动力,也成为提升算力能效的关键手段。通过 AI 算法优化,可以实现数据中心能耗的精准控制和资源的智能调配。
在数据中心能效管理方面,AI 技术通过实时数据分析调整制冷系统,最大限度地减少能源消耗。基于 AI 算法的负荷预测技术,能够精准匹配绿电供应,显著提升可再生能源利用效率。例如,通过分析历史能耗数据和实时环境参数,AI 系统可以预测未来的能耗需求,提前调整制冷系统的运行策略,实现能耗降低 15%-20%。
在算力调度优化方面,AI 技术展现出巨大潜力。绿色算力技术栈通过 RAPL 功耗控制技术、基于负载的 GPU 频率缩放策略和 PUE 优化实践,实现了 AI 集群能效比的显著提升。中等负载下功耗可降低 25%-30%,高负载下功耗可降低 15%-20%。更重要的是,通过强化学习算法,系统能够自动发现最优能效策略,不断优化能耗表现。
在芯片设计层面,AI 技术也在推动能效突破。通过 AI 辅助的芯片架构设计和功耗优化,新一代 AI 芯片在保持高性能的同时实现了能效比的大幅提升。例如,第五代至强可扩展处理器内置英特尔 AMX(Advanced Matrix Extensions),可减少服务器数量,节省高达 1,643.6 兆瓦时的能源,减少将近 697 吨碳排放。
在应用场景优化方面,AI 技术正在各个行业发挥能效提升作用。在制造领域,AI 优化生产流程、精准匹配用能需求;在建筑领域,AI 分析碳排放节点,优化能源使用;在交通领域,AI 调度系统减少空驶里程,降低能源消耗。这些应用不仅提升了效率,也实现了能耗的大幅下降。
2.3.3 绿色芯片技术突破
绿色芯片技术是实现算力产业可持续发展的根本保障。2025 年,业界在芯片设计、制程工艺、封装技术等多个维度实现了能效突破。
在制程工艺方面,先进制程不仅提升了性能,也显著改善了能效。台积电的 3nm 工艺相比 5nm 工艺,在相同性能下功耗降低了 30% 以上;2nm 工艺采用 GAA 架构和背面供电技术,预计能效提升将更加显著。三星的 3nm 工艺通过持续优化,良率已提升至 60%-70%,同时实现了性能提升 12%、功耗降低 30% 的目标。
在架构创新方面,Chiplet 异构集成技术展现出独特优势。AMD 的 MI300X 通过 5 个 Chiplet 组合,不仅实现了性能的大幅提升,还将能效比提升了 25%。这种模块化设计思路使得不同功能模块可以采用最适合的制程工艺,在性能和成本之间找到最优平衡。
在专用芯片设计方面,针对特定应用场景的优化带来了能效的飞跃。ASIC 芯片在推理场景下的能效表现尤为突出,相比通用 GPU 可实现 10 倍以上的能效提升。例如,在自动驾驶、智能安防等推理密集型应用中,专用 AI 芯片通过精简架构、优化指令集等手段,在保证性能的同时大幅降低了功耗。
在封装技术方面,先进封装不仅提升了集成度,也改善了散热效率。通过优化热设计和采用新型散热材料,新一代封装技术能够更好地应对高功率密度带来的散热挑战。同时,通过缩短互连长度、优化信号路径等措施,减少了信号传输过程中的功耗。
展望未来,绿色芯片技术将朝着更高集成度、更低功耗、更智能化的方向发展。通过 AI 辅助设计、新材料应用、架构创新等手段的综合运用,预计在 2030 年前,AI 芯片的能效将再提升 10 倍以上,为算力产业的可持续发展提供坚实支撑。
三、绿色低碳发展趋势
3.1 政策导向与标准体系
绿色低碳已成为算力产业发展的核心议题,国家层面出台了一系列严格的政策要求和标准体系。2025 年,随着 "双碳" 目标的深入推进,算力产业的绿色发展要求更加严格。
根据国家发展改革委、工业和信息化部、国家能源局、国家数据局联合印发的《数据中心绿色低碳发展专项行动计划》,到 2025 年底,全国数据中心布局要更加合理,整体上架率不低于 60%,平均电能利用效率(PUE)降至 1.5 以下,可再生能源利用率年均增长 10%,平均单位算力能效和碳效显著提高。到 2030 年底,全国数据中心平均电能利用效率、单位算力能效和碳效要达到国际先进水平,可再生能源利用率进一步提升。
对于新建数据中心,政策要求更加严格。到 2025 年,全国新建大型、超大型数据中心电能利用效率(PUE)要降到 1.3 以下。而作为 "东数西算" 核心的国家枢纽节点,要求最为严苛,PUE 必须控制在 1.2 及以下,绿电使用比例超过 80%;非枢纽节点的大型数据中心 PUE 须降至 1.25 以内。
在标准体系建设方面,国家正在加快构建完善的绿色算力标准体系。2025 年 10 月,工信部公开征求对《算力标准体系建设指南 (2025 版)》的意见,明确到 2027 年,围绕基础通用、算力设施、算力设备、算网融合、算力互联、算力平台、算力应用、算力安全、绿色低碳等方面制修订 50 项以上标准。其中,绿色低碳是重要的组成部分,将涵盖能效评价、绿色设计、碳管理等多个维度。
地方政府也在积极响应国家政策,出台了更加具体的实施措施。例如,北京市发布的《北京市算力基础设施建设实施方案(2024-2026)》,明确了算力基础设施的绿色发展目标和路径。上海市发布的《上海市关于促进智算云产业创新发展的实施意见 (2025-2027 年)》,将绿色低碳作为智算云产业发展的重要原则。
在国际合作方面,中国正在积极参与全球绿色算力标准制定。2025 年,由中国联通研究院主导制定的算力网络领域重要国际标准 ITU-T Y.2502"Computing power network - Authentication and orchestration architecture"(算力网络 - 认证与编排架构)正式发布。这标志着中国在全球算力标准制定中发挥着越来越重要的作用。
政策的执行监督也在加强。相关部门建立了数据中心能效监测体系,对 PUE、可再生能源使用比例等关键指标进行实时监测。对于不符合要求的项目,将采取限期整改、暂停审批等措施。这种严格的监管机制,推动了整个行业向绿色低碳方向转型。
3.2 能效技术创新与应用
面对日益严格的能效要求,算力产业在技术创新方面取得了显著进展,多种能效优化技术正在大规模应用。
液冷技术是最具代表性的能效创新。2025 年,液冷技术的应用呈现爆发式增长。全球 AI 服务器液冷渗透率从 15% 提升至 30%,国内头部云服务商的新建数据中心超过一半采用液冷技术。在 "东数西算" 工程中,宁夏中卫、甘肃庆阳等地的新建数据中心项目液冷渗透率已达到 35% 以上。
液冷技术的节能效果显著。采用液冷技术的数据中心,PUE 可以降至 1.1 甚至更低,而传统风冷数据中心的 PUE 通常在 1.5 左右。某超算中心采用浸没式液冷技术后,PUE 达到 1.04,创造了行业新低。在能耗降低方面,液冷技术可以将数据中心的制冷能耗降低 40%-60%,整体能耗降低 15%-25%。
AI 驱动的能效优化成为新趋势。通过机器学习算法分析历史能耗数据和实时运行参数,AI 系统能够自动优化数据中心的运行策略。在制冷系统优化方面,AI 系统可以预测负荷变化,提前调整制冷设备的运行状态,实现能耗降低 15%-20%。在服务器调度方面,AI 系统能够根据工作负载动态调整服务器的运行频率和数量,在保证性能的同时最大限度降低能耗。
芯片技术的进步也带来了能效的大幅提升。新一代 AI 芯片通过优化架构设计、采用先进制程工艺,在提升性能的同时显著降低了功耗。例如,第五代至强可扩展处理器内置英特尔 AMX,在保持高性能的同时,可减少服务器数量,节省高达 1,643.6 兆瓦时的能源,减少将近 697 吨碳排放。
绿色芯片设计理念正在深入人心。Chiplet 异构集成技术通过将不同功能模块采用最适合的制程工艺,实现了性能和能效的最优平衡。AMD 的 MI300X 通过 5 个 Chiplet 组合,不仅实现了性能的大幅提升,还将能效比提升了 25%。这种设计思路正在被越来越多的芯片厂商采用。
在系统层面,能效优化技术也在不断创新。CXL 内存池化技术通过共享内存资源,提高了内存利用率,减少了服务器数量。某数据中心采用 CXL 内存池化技术后,服务器数量减少了 30%,整体能耗降低了 20%。在网络优化方面,通过采用低功耗的网络设备和优化网络拓扑,数据中心的网络能耗降低了 10%-15%。
可再生能源的应用也在加速。越来越多的数据中心开始采用太阳能、风能等可再生能源。某数据中心通过建设屋顶光伏电站和购买绿电,可再生能源使用比例达到 40% 以上。在储能技术的支持下,数据中心能够更好地利用可再生能源,实现能源的可持续发展。
3.3 绿色算力产业发展前景
绿色算力产业正在成为推动数字经济可持续发展的重要力量,市场前景广阔,发展潜力巨大。
从市场规模来看,绿色算力相关产业呈现快速增长态势。2025 年,中国数据中心液冷解决方案市场规模预计达到 196.3 亿元,同比增长 41.7%。液冷市场预计在 2026 年达到 113 亿元,2027 年进一步增长至 238 亿元,两年内实现翻倍增长。这种高速增长反映了市场对绿色算力技术的强烈需求。
产业链协同发展格局正在形成。上游的芯片、服务器、制冷设备等核心器件供应商,中游的数据中心建设和运营企业,下游的云计算、AI 应用等用户,正在形成紧密的合作关系。通过产业链协同,企业能够在技术创新、标准制定、市场推广等方面形成合力,共同推动绿色算力产业发展。
技术创新生态日益完善。产学研合作模式在绿色算力领域发挥着重要作用。高校和科研机构提供基础研究支撑,企业负责技术转化和产业化应用,政府提供政策支持和资金扶持。例如,上海鼓励智算云企业与高校、科研机构、智库机构等合作,通过联合研发项目、共建实验室等方式,推动智算云领域关键技术突破。
商业模式创新不断涌现。除了传统的产品销售和服务提供,租赁、共享、算力交易等新模式正在兴起。企业可以通过租赁绿色算力设备,降低初始投资成本;通过算力共享平台,提高设备利用率;通过算力交易市场,实现资源的优化配置。这些创新模式不仅降低了企业的运营成本,也提高了整个行业的资源利用效率。
国际合作前景广阔。在全球应对气候变化的大背景下,绿色算力成为国际合作的新领域。中国企业正在 "一带一路" 框架下,与沿线国家开展绿色算力合作。中国联通在 "一带一路" 沿线布局 2650MW 算力储备和 30EFlops 智算规模,2025 年计划在中东、非洲新增 3 个国际云节点。这种国际合作为中国绿色算力技术和产品走出去提供了重要机遇。
投资热度持续高涨。绿色算力作为新基建的重要组成部分,吸引了大量投资。2025 年,多个绿色算力项目获得巨额投资。例如,张家口中明算力中心项目投资额达到 200 亿元,打造国家一体化算力网络京津冀枢纽。这些大规模投资为绿色算力产业发展提供了充足的资金保障。
展望未来,绿色算力产业将迎来更大发展机遇。随着技术不断进步、成本持续下降、应用场景不断拓展,绿色算力将从可选配置转变为必选方案。预计到 2030 年,绿色算力技术将全面成熟,成本将大幅下降,应用将更加普及,成为支撑数字经济发展的重要基础设施。
结语
算网融合作为新一代信息基础设施的核心特征,正在从概念走向大规模建设和应用。2025 年,中国在算网融合基础设施建设方面取得了突破性进展。算网融合加速推进,#东数西算 八大枢纽节点智算规模达 62 万 PFlops,占全国总量的 80%。1ms 城市算网、5ms 区域算网、20ms 跨国家枢纽节点算网初步实现。
算力应用场景呈现全面拓展态势,1509 个大模型在金融、医疗、制造等领域深度落地。自动驾驶芯片市场规模突破 300 亿元,L2 + 及以上级别智能驾驶新车渗透率突破 45%。#算力产业 生态日趋完善,政策支持力度空前,产学研合作深入推进。但同时面临通用算力过剩、高端算力短缺的结构性矛盾,企业级通用算力中心利用率仅 10%-15%。
相关阅读:


