
近日,英伟达公布备受瞩目的上一财年第四季度及全年财报,以“炸场”表现有力证明AI算力设施产生的需求持续强劲。数据显示,截至2026年1月31日,英伟达第四财季营收创下681亿美元的纪录,同比大增73%。
耀眼的数据背后,是对AI基础设施建设的强大需求。AI基础设施中最重要的代表就是智算中心。智算中心可以视作一类数据中心。英伟达财报中,数据中心业务贡献营收超过九成,单季营收同比增长75%。

智算中心示意图
超节点:智算中心的“计算集团军”
没有智算中心,大模型的训练和应用无从谈起,在AI时代,它就是人工智能技术及产业落地发展的“最前线”。
当前,包含超万颗乃至超十万颗芯片的算力超大规模集群正在加速发展,出现了将几十颗、上百颗芯片组织在一起的“超节点”。它可以理解为由多颗芯片联合构成的“超大芯片”、算力“集团军”。
超节点的概念最早便是由英伟达提出的。2024年英伟达已实现72颗GPU的互联,据称相关架构最多可支持576颗GPU的互联。在中国,2025年世界人工智能大会上展出的华为昇腾384超节点真机,能够支持384颗芯片协同计算。

华为昇腾384超节点示意图
超节点并非只是简单地把多个芯片塞进同一个机柜。不同芯片间的通信需要协调和调度,仅仅“加人头”,就像增加同一个办公室里的开会人数,却不安排人员之间的有效沟通和发言顺序,只会降低效率。
内部通信效率是超节点的关键技术之一。华为昇腾384超节点内部部署了3168根光纤和6912个400G光模块,通信带宽提升了15倍,且不受电磁干扰,极大提高传输效率。
芯片之间的组织架构同样重要。昇腾384开发了一套总线系统,用一套统一的通信协议和硬件链路,让384颗芯片形成更加高效的网状通信结构,还针对大模型相关计算设计了专门的通信流程,按照模型计算的需要,自动调配相关通信带宽和算力资源。
智算中心的算力“战力”,早已不是简单的“堆人头”,而是更有智慧的“布结构”,即在相对小的空间中使用相对少的芯片,实现相对高的计算效率。
网络互联:
智算中心难以替代的“血液循环系统”
一个更有意思的细节是,在英伟达财报数据中心相关收入中,其数据中心计算(Compute)收入513.34亿美元,增速略高于三季度的56%;而数据中心网络(Networking)收入109.80亿美元,同比增长达263%。
英伟达数据中心网络业务的高速增长,意味着客户在建设人工智能基础设施时,不只是大量采购英伟达的芯片,同时也正在整套采购英伟达的互连与系统方案。
数据中心网络业务简单来说就是数据中心内部的网络互联。如果说芯片是一座座“建筑”,超节点是一个个“社区”,网络互联就是决定这些建筑和社区之间的“空间规划”和“道路网络”。要让这些芯片、超节点之间的配合更顺畅,显然这张“地图”的规划和调度有着不可替代的价值。
英伟达正在从以往的刻板印象“卖显卡”,向着更高层级的“卖结构”转变,和算力基础设施需求的生态绑定变得比以往更加牢固。正如在人体中,心脏还可替换移植,但循环系统却无法替换。
例如,智算中心超节点之间数据交换的要求极为苛刻。当前该领域主要由英伟达的InfiniBand(IB)技术主导。

使用IB技术的英伟达交换机
InfiniBand英文直译为“无限带宽”,是一种功能强大的通信技术协议。2019年英伟达以69亿美元的高价击败英特尔和微软,收购原IB技术霸主——以色列公司Mellanox,将IB相关全链条技术收入囊中。尽管IB相关技术规范是由IBTA联盟公开维护的,但其与英伟达既有生态的深度耦合构成了极高的技术壁垒和强有力的生态锁定。
当前中国在该领域的进展呈现绕道替代特征,如华为昇腾便是通过自研系统和芯片,形成超节点内部和之间网络连结的独立生态。
液冷技术:降温与节能,我全都要!
但凡用过笔记本电脑的,谁不知道散热是个大问题?相比仅有寥寥几颗芯片的笔记本电脑,动辄成千上万颗芯片、对计算精度要求极高的智算中心,若没有良好的散热系统,更是无法运转。
今年初的拉斯维加斯CES 2026展会上,黄仁勋发表主题演讲,官宣其新一代旗舰AI计算平台Vera Rubin(简称“Rubin平台”)进入全面量产阶段,该平台已实现100%全液冷覆盖。
智算中心只开空调是远远不够的。根据实验数据,当单颗芯片功率超过300W时,传统风冷系统散热能力便已失效。而英伟达的明星产品GB200 NVL72系统,单卡功耗约1000W,GB300提升至1400W,Rubin GPU更是达到惊人的2.3kW。
智算中心要想提升规模,使用液冷系统是当务之急。液冷技术利用液体比热容高于空气的优势,通过与发热元器件紧密结合实现精准散热,其应用不仅限于芯片运算模块,还有智算中心内部网络连接中用到的交换机、光模块等。
除了高效散热,液冷相较于传统风冷散热方案还有低能耗、低成本的“绿色”优势。在相关实验中,算力规模相同时,对于单个机架功率为20kW的场景,使用液冷技术可以比传统的风冷方案节省大约10%的投资成本;而当单个机架功率增加到40kW时,这一比例上升到14%。

临港智算中心
凭借适配高密度算力同时又高效节能的优势,液冷技术已从智算中心的“备选方案”跃升为建设中的“必选项”。我国液冷市场规模逐年扩大。根据中国信息通信研究院智算中心液冷产业全景研究报告(2025年)测算,2024年我国智算中心液冷市场规模达到了184亿元,较2023年同比增长66.1%。预计2029年我国智算中心液冷市场将达到约1300亿元。
面对日益增长的散热需求,中国企业从未缺席。如早在2011年就提出液冷技术路线的中科曙光,其牵头编制《数据中心冷板式液冷系统技术规范》的子公司曙光数创,2025年发布C7000-F相变间接液冷技术,突破了液冷系统在冷却能力、安全性和系统复杂性方面的限制,为大规模计算提供了更加高效的冷却解决方案。
美编丨小H







