1. 研究背景与核心概念界定:AI算力时代与产业链全景
1.1 AI算力时代的演进与市场驱动力
我们正处在一个由人工智能技术驱动的算力需求爆发时代。这一轮变革的核心驱动力,已从早期的互联网数据服务,转向以生成式AI大模型、智能体(Agentic AI)为代表的复杂计算任务。AI大模型的参数规模正以指数级速度迭代升级,从千亿级向万亿级乃至更高迈进,这不仅对单芯片的计算能力提出了前所未有的要求,更催生了由多台AI服务器通过网络互连组成的、用于分布式训练和推理的AI集群,成为支撑前沿AI研究与商业化的核心基础设施。
市场需求的爆发直接体现在市场规模的高速增长上。根据行业研究数据,2024年中国AI服务器市场规模已达到约1606.55亿元,预计2025年将跃升至约2500亿元,并有望在2026年达到3500亿元。这一增长轨迹不仅反映了中国市场对AI算力的强劲需求,也预示着AI服务器正成为服务器市场增长的核心驱动力。预计到2026年,AI服务器占整体服务器出货量的比例将提升至15%。全球范围内,北美云服务提供商(CSP)如谷歌、亚马逊、Meta、微软等持续加大资本支出,成为全球AI算力建设的主要引擎。这种技术驱动与需求拉动的双重作用,标志着AI算力已从探索阶段进入规模化部署和商业应用落地的“黄金时代”。
1.2 核心概念界定:AI服务器与集群
本报告的研究对象,是专为人工智能应用设计的高性能计算机设备——AI服务器。与传统通用服务器不同,AI服务器的核心使命是支持大规模数据处理、复杂的模型训练和高并发的推理计算等任务。其技术特征表现为极高的计算密度、巨大的内存带宽和先进的互连能力。随着单芯片功耗从700W-1000W攀升至新一代架构的2700W,单机柜功率密度向120kW甚至更高演进,AI服务器在电源、散热等物理基础设施层面也面临着根本性的变革。
当单一的AI服务器无法满足超大规模模型的计算需求时,多个AI服务器通过高速网络(如InfiniBand或以太网)互连,便构成了AI集群。集群的核心价值在于实现算力的横向扩展,通过分布式计算框架将庞大的计算任务分解到成千上万个计算单元上并行处理。这使得AI集群成为训练如GPT-4、Claude等千亿参数大模型的唯一可行路径。集群的规模与效率,直接取决于内部服务器间的互连带宽与延迟,这也催生了对于800G/1.6T光模块、共封装光学(CPO)等高速互连技术的爆炸性需求。
1.3 产业链全景图:从核心组件到应用部署
AI服务器与集群的产业链条长且复杂,技术壁垒分布不均,价值高度集中。为系统分析,本报告将产业链拆解为上游核心组件、中游整机制造与系统集成、下游应用部署三个主要环节,其全景构成如下:
上游核心组件:这是技术壁垒最高、价值最集中的环节,直接决定了AI服务器的算力性能与能效。主要包括:
- 计算芯片:形成GPU(图形处理器)、ASIC(专用集成电路)、FPGA(现场可编程门阵列)、CPU(中央处理器)四大技术路线共存的异构计算格局。GPU凭借其通用并行计算架构和成熟的CUDA生态,目前占据市场主导地位;而ASIC因其针对AI算法的定制化设计,在能效比上具备显著优势,正成为云服务商自研芯片和推理场景的重要选择。
- 存储:以高带宽内存(HBM) 为代表。HBM是一种3D堆叠内存技术,通过将多个DRAM芯片垂直堆叠并与GPU封装在一起,提供极高的数据传输带宽,是突破“内存墙”、释放GPU算力的关键。AI服务器对HBM的需求量是传统服务器的数倍,使其成为产业链中供需最为紧张的环节之一。
- 高速互连:主要包括光模块和共封装光学(CPO)。光模块负责服务器内及服务器间的光电信号转换,AI集群的需求推动端口配置从几个激增至数十个,速率从400G向800G、1.6T快速迭代。CPO是一种更前沿的技术,它将光引擎与计算芯片直接封装在一起,能大幅降低功耗和延迟,是下一代互连技术的演进方向。
- 电源与散热:为应对千瓦级芯片功耗,高功率密度电源(如5.5kW、10kW)和液冷技术(冷板式、浸没式)从可选方案变为刚性需求。液冷利用液体更高的热容和热导率,成为解决高密度算力散热瓶颈的唯一高效方案。
- 其他关键组件:包括用于芯片封装和电路连接的高阶PCB(印刷电路板)、IC载板、连接器等,其工艺复杂度和价值量也随AI服务器升级而大幅提升。
中游整机制造与系统集成:此环节负责将上游各类核心组件整合为完整的AI服务器整机,并根据客户需求设计集群架构。参与者主要包括:
- ODM(原始设计制造商)厂商:如工业富联,深度绑定芯片巨头,提供从设计到制造的全流程服务,是全球AI服务器产能的主要供给方。
- 品牌整机厂商:如戴尔、HPE(慧与),提供硬件产品并逐渐向“AI基础设施即服务”的混合云模式转型。
- 本土服务器厂商:如浪潮信息、新华三(紫光股份旗下),采用JDM(联合设计制造)模式深度参与国内互联网及政企客户的定制化需求,是国内市场的主力。
下游应用部署:这是AI算力需求的最终来源,主要包括:
- 云计算服务商:如亚马逊AWS、微软Azure、谷歌云、阿里云、腾讯云等,它们建设超大规模数据中心以对外提供AI算力租赁和模型服务,是高端AI训练服务器的主要采购方,其资本开支节奏直接牵引上游产业链。
- 数据中心运营商:包括第三方IDC服务商,为企业和政府提供算力基础设施托管与服务。
- 垂直行业应用:金融、医疗、工业、自动驾驶等传统行业的企业,开始部署AI服务器用于模型推理和特定场景的智能化改造。
1.4 研究框架与核心议题
基于上述产业链全景,本报告将遵循“拆解环节-分析价值-映射公司-识别机会”的逻辑展开深度研究。后续章节将逐一深入剖析上游各核心环节(计算芯片、存储与互连、电源与散热)的技术路线、市场格局与价值分布;解构中游整机制造的商业模式与盈利特征;追踪下游需求驱动的资本开支与采购策略。在此基础上,报告将对全产业链进行价值占比的量化分析,识别当前最紧缺、增长最快及最被低估的关键环节,并最终完成对中外上市公司的全景式对比,梳理其财务表现、估值差异与投资逻辑,为理解AI算力时代的产业脉搏与投资机遇提供系统性框架。
2. 上游核心环节深度分析(一):计算芯片的技术路线、市场格局与价值主导
作为AI服务器与集群的“大脑”,计算芯片是决定算力性能、能效与成本的基石,也是整个产业链中技术壁垒最高、价值最集中的环节。当前,AI计算已进入异构计算时代,GPU、ASIC、FPGA、CPU四大技术路线针对不同场景需求形成差异化竞争与协同格局。本章将深入剖析各类计算芯片的技术特征与演进趋势,解构全球寡头垄断与国产替代加速并行的市场格局,并量化分析其在AI服务器成本结构中的主导地位。
2.1 技术路线:异构计算时代的差异化演进与融合
AI计算芯片已形成多元化的技术路径,每种架构因其设计哲学不同,在性能、能效、灵活性和成本上各具优劣,共同服务于从云端训练到边缘推理的复杂算力需求。
GPU(图形处理器) 凭借其大规模并行流处理器架构和英伟达构建的CUDA软件生态,成为当前AI模型训练领域的绝对主力。其核心优势在于通用性强、编程灵活,能够高效执行矩阵乘加等AI核心运算,支持从科学计算到全场景AI训练的各种任务。然而,这种通用性也带来了较高的功耗代价,单卡功耗最高可达600W,且在推理场景下的能效比相对较低。
ASIC(专用集成电路) 走的是与GPU相反的定制化路径。它通过硬件电路固化特定的AI算法(如Transformer),实现了极致的能效比,通常可达GPU的3-5倍,并具备显著的成本优势。谷歌的TPU、亚马逊的Trainium/Inferentia以及国内寒武纪的思元系列均属此类。其短板在于研发周期长、灵活性差,通常仅针对已固化的算法优化,难以适应快速迭代的AI算法变迁。因此,ASIC目前主要应用于云端大规模推理及云服务商的定制化训练场景。
FPGA(现场可编程门阵列) 提供了介于通用与专用之间的灵活性。其硬件逻辑可在制造后通过编程重新配置,从而在低延迟、高实时性要求与算法快速迭代之间取得平衡。这使得FPGA在边缘计算、通信加速及中小规模推理场景中具有独特价值。然而,其编程难度高、开发生态相对不完善,限制了其大规模普及。
CPU(中央处理器) 作为经典的冯·诺依曼架构代表,在AI计算中并未承担主要的并行计算任务,而是扮演着“指挥官”的角色。其强大的逻辑控制与任务调度能力,是协调GPU、ASIC等加速器进行高效异构计算的核心,负责数据预处理、任务分发和系统管理。
从技术演进趋势观察,单一架构通吃的时代已经过去,异构计算成为明确的主流方向。一个典型的AI服务器系统通常以CPU为控制核心,GPU承担通用训练负载,ASIC优化特定推理任务,FPGA适配灵活的边缘需求。这种组合允许用户根据工作负载特性灵活调配算力资源,实现效率最大化。其中,随着AI模型训练成熟并进入大规模部署阶段,推理需求持续爆发,具备极致能效的ASIC市场份额有望持续提升。同时,为应对不断增长的算力需求,Chiplet(芯粒) 等先进封装技术被广泛采用,通过将多个较小芯片模块化集成,以提升性能、降低成本和加速产品迭代,寒武纪的思元370芯片即采用了该技术。
2.2 市场格局:全球寡头垄断与国产替代的激烈交锋
全球AI计算芯片市场呈现出高度集中且快速演变的竞争格局,而中国市场在外部压力和内部政策的驱动下,正上演一场国产替代的加速赛。
全球市场:GPU与ASIC双赛道下的寡头竞争 在GPU领域,英伟达凭借其硬件性能与CUDA生态构成的深厚护城河,占据全球数据中心AI处理器市场的主导地位。2024年,其市场份额高达89%,AMD以约8%的份额位居第二,形成了“一超一强”的格局。当年全球数据中心AI处理器市场规模达1205亿美元,其中GPU贡献了88.8%的份额,印证了其作为当前AI算力核心载体的地位。 在ASIC领域,竞争格局同样集中。博通与Marvell合计占据超过70%的市场份额,其中博通以57.5%的份额位居第一,成为该赛道的领头羊。2024年,全球ASIC市场规模已达111亿美元,占AI处理器市场的9.2%,显示出强劲的增长势头。头部云服务商如谷歌、亚马逊的自研ASIC芯片(TPU, Trainium)虽不对外销售,但其内部大规模部署正深刻影响着市场格局。
中国市场:政策驱动下的国产化进程加速 受地缘政治与美国出口管制影响,海外厂商在中国AI芯片市场的份额受到挤压。2024年,英伟达与AMD在中国市场的合计份额降至71%,而华为海思的市占率则提升至23%,寒武纪、沐曦等国产厂商也在持续突破。从服务器架构看,2024年中国GPU服务器仍占据AI服务器市场的69%,但非GPU架构(包括ASIC等)的占比已超过30%。行业预测显示,到2029年,非GPU服务器在中国市场的占比有望提升至接近50%,表明技术路线正在多元化。 这一替代进程具有明确的战略意义。预计到2025年,中国AI服务器外购海外芯片的比例将从2024年的63%显著降至42%,本土芯片供应商的占比将提升至40%。更关键的进展在于生态协同,国产大模型与国产芯片已实现“Day 0”适配,标志着国产算力生态正从“可用”向“好用”协同发展新阶段迈进。
2.3 价值占比与成本结构:GPU主导下的价值高地
AI服务器的成本结构与传统服务器存在本质区别,计算芯片及其配套部件的价值占比达到了空前高度,这直接重塑了产业链的价值分布。
在典型的AI服务器中,GPU是成本结构的绝对核心。尤其是在用于模型训练的机器学习型AI服务器中,GPU的成本占比高达72.8%,在部分高端机型中甚至可达83%。随着模型规模扩大,单台AI服务器配置的GPU数量已从早期的2-4片普遍提升至8-16片,这进一步放大了GPU在整机价值中的权重。作为对比,在传统服务器中,计算芯片(CPU为主)的成本占比约为32%,AI服务器计算芯片的价值集中度可见一斑。
计算芯片的升级同时显著拉动了配套芯片的价值量。为驱动和保障高性能GPU稳定运行,AI服务器对电源管理芯片(PMIC)的需求激增,单台服务器的相关芯片价值量是传统服务器的3-5倍。其中,用于精确控制电流的DrMOS(驱动器和MOSFET集成)芯片、多相控制器等产品直接受益。此外,用于高速互联的网络芯片需求也同步爆发。博通的AI智能网络业务收入在2025财年第一季度同比增长60%,占其AI总收入的三分之一,并预计在第二季度将进一步提升至40%,这凸显了互连芯片在AI集群中的关键地位。
2.4 核心上市公司业绩透视与未来趋势
海外龙头:AI业务成为增长核心引擎 海外头部芯片厂商的业绩充分印证了AI算力需求的爆发性。
- 英伟达作为行业标杆,2024财年总营收达2159.38亿美元,同比增长65.5%,其中数据中心业务收入1151.86亿美元,已成为其第一大营收来源。公司计划于2026年推出下一代Rubin AI平台,旨在进一步巩固其在通用AI算力市场的领导地位。
- 博通在ASIC和网络芯片领域表现突出,2026财年第一季度AI半导体业务收入达84亿美元,同比激增106%。公司预计第二季度AI业务收入将达107亿美元,同比增长140%,并乐观预测2027年AI芯片收入有望突破1000亿美元。
- Marvell同样受益于定制AI ASIC及光互连需求,其2026财年数据中心业务营收占比已高达74%。公司预计2023至2028年,AI ASIC市场的年复合增长率将高达53%,市场规模在2028年将达到554亿美元。
国内厂商:国产替代驱动业绩高增长 国内芯片厂商在政策与市场需求的双重驱动下,业绩呈现高速增长。
- 海光信息的CPU及DCU(深算单元,类GPU)产品线快速发展,2024年实现营收40.34亿元,同比增长68.1%。其DCU产品兼容CUDA/ROCm生态,已成功适配主流AI框架与国产大模型。
- 寒武纪专注于AI ASIC芯片,2024年营收达28.85亿元,同比大幅增长159.6%。其思元370芯片采用Chiplet技术,算力性能较前代实现翻倍,在云端推理场景具备领先优势。
- 景嘉微作为国产GPU厂商,成功研发了景宏系列智算模块,可应用于AI训练与推理场景,标志着其在民用高性能计算领域的拓展。
未来趋势展望 首先,ASIC的市场影响力将持续扩大。随着推理需求占比超过训练,追求TCO(总拥有成本)最优的云服务商将更青睐高能效的ASIC。预计2025年,谷歌、亚马逊的ASIC出货量合计将达到英伟达GPU的40%-60%。随着2026年Meta、微软等厂商的大规模部署,ASIC出货量有望在部分场景与GPU持平,形成长期共存、互补的格局。 其次,国产替代的深度与广度将同步推进。替代过程将从满足“有无”问题,逐步深入到性能追赶、生态完善和供应链安全的全方位竞争。国产芯片厂商需要持续在算力、能效和软件栈方面取得突破,以应对可能的技术瓶颈和市场挑战。 最后,AI服务器作为整体市场的增长极地位稳固。其渗透率的提升不仅驱动自身市场扩张,也通过提升单机价值深刻改变了服务器行业的收入结构与盈利模式,为产业链各环节带来结构性增长机遇。
3. 上游核心环节深度分析(二):存储(HBM)与高速互连(光模块/CPO)的供需瓶颈与价值跃升
在AI算力时代,计算芯片的澎湃算力需要海量数据的快速供给与高效协同,这使得存储与高速互连成为决定AI集群整体性能的关键瓶颈。如果说计算芯片是AI服务器的“大脑”,那么高带宽内存(HBM)就是其“高速记忆体”,而光模块与CPO(共封装光学)则是连接各个“大脑”的“超高速神经”。本章将深入剖析这两个环节如何从传统服务器的辅助角色,跃升为AI基础设施中价值量激增、供需矛盾最突出的核心赛道。
3.1 存储环节:HBM重塑价值结构,供需格局呈现长期结构性失衡
AI模型的训练与推理本质上是数据密集型的计算过程,其对内存容量和带宽的需求呈指数级增长。这直接导致AI服务器的存储价值结构发生根本性变化,传统DDR内存的主导地位被HBM取代,并引发了全球存储产业链的结构性紧张。
HBM:从技术选项到成本核心的价值跃迁 HBM通过3D堆叠和硅通孔(TSV)技术,将多个DRAM芯片与处理器(如GPU)封装在一起,实现了远超传统内存的带宽。这一特性使其成为突破“内存墙”、释放GPU算力的关键。价值量上,HBM在AI服务器中的成本占比已高达23.64%,而单台AI服务器的整体DRAM价值量约为传统服务器的6倍。随着AI模型参数规模膨胀,单颗GPU搭载的HBM容量正从80GB向144GB乃至288GB升级,直接推高了存储环节在BOM(物料清单)中的权重。高盛预测,2023至2026年HBM市场的复合年增长率(CAGR)将高达约100%,2026年市场规模有望达到300亿美元,成为存储市场中增长最快的细分领域。
供需矛盾:先进产能的绝对稀缺与传导效应 当前HBM市场面临严重的供给侧约束,其根源在于极高的技术壁垒与产能扩张瓶颈。HBM的生产工艺复杂,晶圆消耗量是标准DRAM的3倍以上,且涉及TSV和3D堆叠等尖端技术,扩产周期长、资本开支大。SK海力士、三星和美光三大原厂几乎垄断了全球HBM供应,2024年它们的HBM产能已全部售罄,2025年产能也几近订满,预计2024年和2025年HBM3/3E的供需缺口分别为5.4%和4.1%。
这种供需失衡产生了显著的传导效应。为了满足利润更丰厚的HBM订单,原厂将先进制程产能大幅倾斜,导致通用DRAM(如DDR4、LPDDR4X)的供给被挤压。TrendForce数据显示,2025年第二季度通用DRAM的价格涨幅预期已从55%-60%上调至90%-95%,部分消费级DRAM季度涨幅达40%-45%。这形成了AI服务器推动存储市场“高端紧缺、普涨跟隨”的结构性牛市。
技术竞赛与厂商格局:龙头地位在迭代中巩固 HBM技术正快速从HBM3E向HBM4迭代,技术领先性直接决定了市场份额。SK海力士凭借在HBM3E上的量产优势占据领先地位,已实现12层堆叠HBM3E的量产并锁定了英伟达等核心客户订单,其2025年第二季度DRAM市场份额提升至38.2%,超越三星成为第一。三星电子则采取全品类覆盖和积极定价策略,针对12层HBM3E推出降价30%的策略以争夺市场,并获得了英伟达的认证。美光作为后起之秀,跳过HBM3直接量产HBM3E,已供货英伟达H200,预计2025年产能将达6万片/月。这场技术竞赛的背后,是巨头们对未来AI算力基础设施核心资源的战略卡位。
3.2 高速互连环节:光模块量价齐升,CPO开启下一代技术周期
随着AI集群规模扩大,单台服务器内部GPU数量增加,服务器之间的数据交换成为制约训练效率的关键。高速互连技术由此从保障连通性的“普通公路”升级为决定算力聚合效率的“超级高速公路”。
需求爆发:从端口数量到传输速率的双重升级 AI服务器对高速互连的需求呈现量价齐升的特征。在“量”上,为支持多GPU并行计算,单台AI服务器的光模块端口配置从传统服务器的2-4个激增至24-32个,端口密度提升6-8倍。在“价”上,传输速率正从400G向800G、1.6T快速迭代。800G光模块已成为当前AI集群的标配并大规模量产,而1.6T光模块已进入商用导入期,预计2025年完成技术验证。这种升级使得光模块在AI服务器中的价值占比提升至5%-10%,远高于传统服务器的不足2%。
技术演进:可插拔光模块与CPO的路径选择 当前市场以可插拔光模块为主,但CPO技术被视为下一代方向。CPO将光引擎与交换芯片直接封装在一起,能显著降低功耗(40%-70%)和延迟,提高带宽密度。其发展将分阶段推进,2026年的核心形态可能是近场封装光学(NPO),预计到2028年,CPO在高速光互连市场中的份额可能达到30%。然而,CPO也面临技术成熟度、良率挑战以及维护性等问题,因此未来一段时间内,可插拔光模块与CPO技术预计将共存,分别满足不同场景和成本结构的需求。
供应链瓶颈:核心元器件短缺制约产能释放 与HBM类似,高速光模块市场也面临严重的产能约束,瓶颈主要集中在核心光芯片。2026年,800G光模块市场需求预计为6000万个,但实际出货量可能仅为3500-4000万个;1.6T光模块需求3000万个,实际出货量约1500万个,头部供应商产能已全部售罄。其中,200G EML(电吸收调制激光器)芯片的供应缺口高达20%-30%,导致Lumentum等光芯片厂商已提价10%-20%。为应对磷化铟(InP)光芯片的产能瓶颈,硅光(SiPh) 技术正在加速渗透,预计2026年硅光在800G产品中的占比将达到50%,在1.6T产品中占比有望达到70%。
中国厂商的全球主导地位与业绩爆发 在光模块制造环节,中国厂商已占据全球主导地位。中际旭创作为全球龙头,2024年营收增速达120%,其800G硅光模块量产成本较传统方案降低30%,在800G和1.6T市场占据领先地位。新易盛2024年营收增速高达175%,积极布局硅光并依托海外基地提升竞争力。天孚通信作为上游光器件核心供应商,销售毛利率高达56.6%,通过提供光引擎等组件深度受益于行业高景气。这些公司的业绩爆发印证了中国企业在全球AI基础设施供应链中不可或缺的地位。
3.3 投资启示:关注瓶颈环节的确定性与技术迭代的弹性
存储与高速互连环节的投资逻辑,紧密围绕“供需缺口”和“技术迭代”两条主线展开。
对于存储(HBM)环节,投资重点在于识别产能扩张节奏与供需缺口的持续性。由于技术壁垒极高且扩产周期长,HBM的紧缺格局预计将延续至2027年。SK海力士、三星、美光三大原厂是直接的受益者,其资本开支进度和良率爬坡情况是关键跟踪指标。同时,HBM的紧缺外溢效应使得能够供应先进封装材料、测试设备等相关配套环节的公司也间接受益。
对于高速互连环节,投资机会呈现梯队性。首先,在可插拔光模块领域,拥有800G/1.6T量产能力、且与云厂商绑定深入的头部制造商(如中际旭创、新易盛)业绩确定性最强。其次,上游光芯片、硅光技术相关的公司,将受益于技术路径演进和国产替代需求,具备较高的成长弹性。最后,CPO作为颠覆性技术,虽处于商业化早期,但一旦在良率和成本上取得突破,相关布局公司可能获得巨大的估值溢价。
主要风险在于技术迭代不及预期和供需格局反转。若CPO技术商业化进程显著慢于预期,或硅光技术未能有效缓解光芯片短缺,可能影响光模块行业的升级节奏。若全球AI算力建设高峰过后需求放缓,或HBM产能扩张超预期,当前紧张的供需关系可能逆转,导致产品价格和厂商盈利能力下滑。此外,地缘政治因素导致的供应链扰动,也是需要持续关注的风险点。
4. 上游核心环节深度分析(三):电源与先进散热的技术迭代与市场爆发
随着AI芯片单卡功耗从H100时代的700W-1000W向Blackwell架构的2700W乃至更高迈进,AI服务器集群的单机柜功率密度已从传统的10kW飙升至120kW甚至1MW量级。这种算力功耗的指数级跃升,使得传统风冷与低功率电源方案触及物理极限,高功率密度电源与先进液冷散热技术已从“可选配置”转变为行业刚需。这一结构性变革不仅重塑了技术壁垒,更显著提升了相关环节在AI服务器总成本中的价值占比,为具备全链条解决方案能力的企业带来了确定性的市场爆发机遇。
4.1 技术壁垒:从“适配”到“引领”的全面升级
AI服务器对电源与散热的要求发生了质变,技术壁垒从简单的“适配”现有组件,升级为必须“引领”系统架构设计,以满足极端功率密度下的稳定、高效运行。
在电源环节,核心挑战在于功率密度、转换效率与架构复杂性的三重提升。主流AI服务器电源功率已从传统的800W-1600W跃升至5.5kW,并正向10kW演进。为应对这一挑战,技术演进体现在三个维度:首先,在功率器件层面,需广泛采用以碳化硅(SiC)和氮化镓(GaN)为代表的第三代半导体材料,替代传统硅基器件,以解决高频、高压工况下的开关损耗与热管理难题,提升整体转换效率。其次,在拓扑结构层面,电路设计变得极为复杂,普遍采用PFC(功率因数校正)+LLC的两级拓扑。其中,AC/DC级常采用两相交错式无桥图腾柱PFC电路,而DC/DC级则使用基于GaN晶体管的单相全桥LLC谐振电路,以实现高效率的电能转换。最后,在系统架构层面,为降低传输损耗,电源系统需适配800V高压直流(HVDC)架构,实现从电网到芯片的全链路模块化、预制化覆盖,这对企业的系统集成能力提出了极高要求。
在散热环节,液冷技术因其物理特性优势成为唯一可行方案。液体的热导率是空气的23倍,单位体积热容量是空气的3000倍,能够高效应对千瓦级芯片的集中发热。当前技术路线以冷板式液冷为主,因其对现有服务器基础设施改动较小、技术成熟度高,占据了95%以上的市场份额。而浸没式液冷(特别是相变浸没)虽能将数据中心PUE(电能使用效率)降至1.1以下,拥有极致的散热和节能效果,但由于初期投资高、维护复杂,目前仍处于商业化早期阶段。该环节的技术壁垒集中于核心部件的精密制造与全系统集成能力,包括冷却液分配单元(CDU)、高精度冷板、防泄漏快接头等,同时需解决材料兼容性、长期可靠性以及快速匹配不同AI芯片平台的定制化需求。
4.2 市场规模与价值占比:量价齐升的爆发性增长
AI服务器电源与散热市场正处在技术驱动与政策推动下的高速增长通道,其市场规模扩张不仅源于AI服务器出货量的增加,更得益于单机价值量的显著提升。
从市场规模看,这是一个具备高确定性的高增长赛道。全球AI服务器电源市场规模预计将以54.87%的年复合增长率(CAGR)从2024年增长至2031年的608.1亿美元。聚焦中国市场,其AI服务器电源市场规模预计在2030年达到1510亿元人民币,2025-2030年CAGR为54%。散热市场同样火热,全球服务器液冷市场规模预计在2030年达到535亿美元,2026-2030年CAGR为43.6%。中国液冷服务器市场增长更为迅猛,2023-2024年增速达67%,预计2025年市场规模将超800亿元人民币,占中国服务器市场总规模的比重有望提升至30%。
尽管电源与散热系统在AI数据中心总成本中占比约5%,但其单位价值量(ASP)的跃升更为关键,直接提升了该环节的产值和盈利能力。在电源方面,传统服务器电源售价约为0.8-1元/瓦,而5.5kW及以上的AI服务器电源因技术复杂度和材料升级,溢价显著,售价可达1.2-3元/瓦。在散热方面,液冷系统的单位价值量约为0.8-1.2美元/瓦,远高于风冷方案,其中冷板成本占比超40%,CDU占比30%-40%。此外,上游核心元器件价值也随之激增,例如,从英伟达V100到B300 GPU,单卡所需的DrMOS(电源管理芯片)价值量增长了约4倍,凸显了算力升级对配套环节的深度拉动。
4.3 核心上市公司业务进展与竞争格局
在AI服务器电源与散热这一高增长赛道中,已形成全球龙头与国内领先厂商分层竞争的格局,各公司凭借不同的技术路径和客户资源抢占市场份额。
维谛技术作为全球关键数字基础设施的领导者,展现出全链条协同的显著优势。公司是英伟达NPN(NVIDIA Partner Network)网络中唯一的大型物理基础设施供应商,与英伟达深度绑定,共同开发了用于GB200 NVL72平台的7MW液冷参考架构。其业务覆盖关键电力(UPS、HVDC、配电)与热管理(风冷、液冷)系统,数据中心业务占比约80%。2025年,公司实现净销售额102.3亿美元,同比增长28%,毛利率维持在36.3%的高位。公司率先推出800V HVDC架构解决方案,其“预制化”能力可将数据中心部署周期从18-24个月大幅缩短至6个月以内,随着液冷制造能力提升计划的推进,有望持续巩固其在全球高端市场的领导地位。
英维克是国内精密温控节能领域的龙头,实现了从冷板、快接头、CDU到机柜、工质的液冷全链条布局,其Coolinside品牌解决方案已应用于字节跳动、腾讯等头部互联网企业。公司技术实力突出,其冷板产品被列入英特尔服务器设计指南,UQD产品进入英伟达MGX生态系统合作伙伴名单,并参与了GB300相关标准制定。财务方面,2025年公司实现营收60.68亿元,净利润5.43亿元,但受行业竞争加剧影响,毛利率为27.86%。随着2026年液冷市场需求全面放量,公司凭借技术先发优势有望实现业绩的进一步增长。
高澜股份与申菱环境则代表了从传统优势领域向AI算力热管理成功拓展的案例。高澜股份原为特高压纯水冷却设备龙头,正将数据中心液冷(包括冷板式和浸没式)作为第二增长曲线,产品已涵盖服务器液冷板、CDU等核心部件,并与字节跳动、阿里巴巴等企业建立合作。市场预测其2025-2027年归母净利润有望实现快速增长。申菱环境深耕环境调节设备多年,很早就布局液冷技术,提出“风液同源,风液可调”的解决方案。公司数据服务板块增长迅猛,2024年营收同比增长75.40%,新增订单同比增长约95%;2025年1-8月新增订单约为去年同期的2倍,显示出强劲的订单获取能力。
4.4 投资逻辑与关键跟踪指标
AI服务器电源与散热环节的投资核心,在于把握技术迭代确定性与市场规模爆发性叠加带来的戴维斯双击机会。具备核心技术壁垒、规模化交付能力以及与头部芯片或云厂商深度绑定的企业,将最充分地受益于行业红利。
具体的投资逻辑可沿两个方向展开:在全球高端市场,维谛技术这类提供端到端解决方案、并与英伟达等算力巨头深度绑定的企业,凭借其技术、品牌和生态优势,占据了价值链的顶端,享受较高的盈利水平和估值溢价。在国内及海外中低端市场,英维克、高澜股份、申菱环境等国内企业,则通过全链条技术布局、成本控制优势和快速响应能力,在国产替代和全球产能扩张中迅速崛起,其业绩弹性可能更大。
为验证这一投资逻辑并跟踪行业进展,以下关键指标至关重要:
- 液冷渗透率:需密切关注2025年中国市场液冷服务器占比能否达到30%的预期。若渗透率超预期提升,将直接确认技术路线的胜利,并带动相关企业营收规模快速上量。
- 功率密度演进:跟踪AI服务器单机柜功率是否持续向120kW、1MW甚至更高突破。功率密度的每一次跃升,都将对电源的转换效率、液冷系统的散热能力提出更苛刻的要求,从而推动产品单价和毛利率上行。
- 企业毛利率走势:在行业高景气的背景下,市场竞争可能加剧。需观察头部企业能否通过技术领先性、规模效应和供应链管理,维持或提升毛利率水平,这是判断其长期盈利能力和护城河的关键。
- 海外市场拓展:对于志在全球竞争的国内厂商而言,北美、东南亚等海外市场的订单落地情况是重要的增长验证。成功切入海外供应链,不仅意味着市场空间的打开,也代表了其技术实力获得了国际认可。
然而,该赛道也面临不容忽视的风险。首要的是技术路线迭代风险,例如若浸没式液冷技术成熟与成本下降速度快于预期,可能对当前主流的冷板式液冷方案及相关企业构成冲击。其次,随着更多厂商涌入,市场竞争加剧可能导致产品价格下降,压缩企业利润空间。此外,上游SiC/GaN等关键材料供应短缺,以及全球AI算力需求不及预期,都可能成为产业链发展的制约因素。投资者需动态评估这些风险因素与行业增长动能的消长关系。
5. 中游整机制造与系统集成:商业模式、竞争格局与盈利特征
作为连接上游核心组件与下游最终需求的枢纽,中游整机制造与系统集成环节是AI服务器产业链中实现价值落地的关键。该环节的参与者负责将GPU、HBM、光模块、电源、散热等高度复杂且昂贵的零部件,整合为稳定、高效、可大规模部署的AI服务器及集群系统。本章将深入剖析该环节三类主要参与者的商业模式、全球与中国的竞争格局演变,并重点解构其差异化的盈利特征与背后的驱动逻辑。
5.1 商业模式分类:ODM、品牌商与本土JDM的路径分野
中游厂商根据其与上下游的互动关系、技术参与深度和客户策略,形成了三种差异显著的商业模式,分别对应不同的产业链价值定位和增长逻辑。
ODM(原始设计制造商)模式以工业富联为代表,其核心是作为全球算力巨头的“核心制造服务商”。这类厂商深度绑定英伟达等芯片龙头,提供从设计、工程验证到大规模制造的全流程代工服务。例如,工业富联不仅是英伟达A100/H100 GPU板卡的独家供应商,也是其HGX AI服务器芯片基板的最大供应商。随着AI服务器向机柜级解决方案(如英伟达GB200 NVL72)演进,ODM厂商在机柜设计、液冷系统集成等方面的技术难度与价值贡献显著提升,其角色从单纯的板卡制造向更复杂的系统集成延伸。这种模式的优势在于能够凭借规模效应和制造效率,快速响应头部客户的爆发性需求,但其盈利水平通常受制于上游芯片供应商的定价和下游大客户的议价能力。
品牌整机厂商模式以戴尔、HPE(慧与) 为代表,正经历从传统硬件销售商向“AI基础设施即服务”提供商的战略转型。它们不仅销售AI服务器硬件,更致力于提供包含混合云订阅、软件管理和全栈解决方案的一体化服务。例如,HPE通过GreenLake订阅模式整合其收购的Cray超算技术,打造“全栈AI工厂”;戴尔则凭借其深厚的企业级客户基础,向新兴云服务商和传统企业提供从传统服务器到AI服务器的完整产品线,并受益于智能体AI带来的持续工作负载需求。这类厂商的核心竞争力在于品牌、渠道、服务以及软硬件整合能力,其盈利模式更趋多元化,但同样面临原材料成本波动和云服务商直销模式的双重挤压。
本土JDM(联合设计制造)模式以浪潮信息为典型,是中国市场特定环境下的产物。JDM模式强调与客户(尤其是国内大型互联网公司)进行深度联合开发,根据客户的特定业务场景和负载需求进行定制化设计制造。这种模式使厂商能够深度嵌入客户供应链,快速响应需求变化,并以规模扩张优先策略迅速抢占市场份额。然而,深度定制化和激烈的价格竞争往往以牺牲利润率为代价。此外,如中兴通讯、紫光股份(旗下新华三)、中科曙光等厂商,则依托在通信设备、政企市场或高性能计算领域的既有优势,将AI服务器作为其整体解决方案的一部分进行布局,服务于更广泛的行业客户。
5.2 竞争格局演变:白牌厂商崛起与国产三足鼎立
全球及中国AI服务器整机市场的竞争格局正在发生深刻变化,其核心特征是制造环节的集中化与品牌影响力的相对弱化。
在全球市场,白牌(ODM Direct)服务器厂商的崛起已成为最显著的趋势。以工业富联、广达为代表的ODM厂商,凭借其与云服务商(CSP)深度绑定、灵活定制和成本效率的优势,市场份额持续快速提升。2024年第四季度,全球白牌服务器厂商营收同比增长高达155.5%,其市场份额已从2023年的37.4%跃升至47.3%,成为市场的主导力量。相比之下,戴尔、HPE等传统品牌厂商的市场份额整体呈平稳或微降态势,戴尔的市场份额从2022年的27.0%微降至2024年第四季度的26.2%。这反映出超大规模数据中心业主越来越倾向于跳过品牌商,直接与ODM合作以优化总拥有成本(TCO)。
在中国市场,则形成了浪潮信息、华为、新华三“三足鼎立”的格局,且国产替代进程显著加速。浪潮信息通过JDM模式,深度服务百度、阿里巴巴、腾讯等互联网客户,占据了国内互联网行业AI服务器市场的主要份额。新华三依托紫光股份在政府、运营商及大型央国企领域的深厚资源,在信创市场优势明显。华为则凭借其昇腾AI芯片构建的全栈软硬件生态,在金融、能源等关键行业实现快速突破。在AI服务器核心芯片层面,尽管英伟达在2022-2024年仍占据中国85%以上的市场份额,但美国出口限制正迫使国内客户加快转向华为昇腾、寒武纪等国产芯片,从而带动了本土服务器整机厂商的同步发展。
5.3 盈利特征分析:规模与利润的艰难权衡
中游整机制造环节的盈利水平普遍承压,呈现出“高营收增长、低毛利率”的特征,且不同模式厂商之间分化显著。这主要源于其在产业链中处于上游强势芯片供应商与下游强势云服务商之间的“夹心”位置。
毛利率的结构性分化与持续压力是这一环节最突出的财务特征。以A股主要公司为例,这种分化体现得极为明显:
表格
复制
证券简称 | 商业模式 | 2024年服务器业务/相关毛利率 | 趋势与动因分析 |
工业富联 | ODM | 云计算业务毛利率约5% | 毛利率相对稳健但偏低。2024年综合毛利率7.28%,2025年Q1降至6.73%,主因高增长但低毛利的通用服务器业务占比提升稀释了整体盈利。高端AI服务器(如GB200)放量有望改善利润率。 |
浪潮信息 | JDM | 2024年Q4服务器业务毛利率降至6.75% | 呈现“以利润换规模”特征。毛利率从2020年的11.53%持续下滑至2025年Q1的**3.45%**。主因互联网客户议价能力强、行业标准化导致竞争激烈,以及公司优先保障市场份额的战略所致。 |
中科曙光 | 综合方案商 | 2024年整体毛利率26.56% | 毛利率显著高于同业。得益于其高端计算业务定位、自研芯片(如海光信息参股)带来的技术附加值,以及在政府、科研等高壁垒市场的优势。 |
从上表可知,纯硬件制造和集成的ODM/JDM厂商毛利率普遍低于10%,甚至持续下滑。而像中科曙光这样具备上游技术能力或高壁垒市场渠道的厂商,则能维持较高的盈利水平。戴尔、HPE等国际品牌厂商同样面临压力,其毛利率受存储等关键原材料价格波动影响较大,而行业竞争也限制了其提价空间。
盈利驱动因素的转变正在发生。尽管毛利率承压,但领先厂商的业绩增长驱动力依然强劲,主要来自:1) AI服务器出货量爆发与价值量提升:全球AI服务器出货量预计在2026年同比增长24%至266.6万台,其中高端训练服务器增长40%。英伟达Blackwell(GB200/GB300)及下一代平台推动机柜级解决方案价值量大幅提升,为ODM厂商带来新的增长点。2) 技术升级带来的附加值:液冷技术(尤其是冷板式)的渗透率快速提升,预计2025年中国液冷服务器渗透率达25%-30%,这要求整机厂商具备更强的热设计能力,从而带来一定的技术溢价。3) ASIC芯片的定制化趋势:为追求自主与效率,头部云服务商加大自研ASIC芯片(如谷歌TPU、亚马逊Trainium)的部署。TrendForce预计ASIC AI服务器占比将从2025年的11%上升至2026年的25%。这种深度定制化项目通常能为参与设计的ODM厂商带来高于标准品的利润率。
5.4 未来展望与投资逻辑
展望未来,中游整机制造环节的演化将围绕 “效率”与“价值”两条主线展开。一方面,规模化、预制化、自动化制造能力是满足全球海量算力需求的基础,ODM厂商的地位将进一步巩固。另一方面,单纯拼装硬件的价值将日益萎缩,能够向上游延伸(参与芯片合作设计)、向下游融合(提供液冷集成、集群管理软件)或聚焦于特定高价值市场(如政企、边缘计算)的厂商,方能突破毛利率困境,获取更可持续的盈利能力。
对应的投资逻辑亦需分层看待:对于工业富联等全球头部ODM,核心跟踪指标在于其高端AI服务器(如GB200)的出货爬坡进度、良率控制以及来自多家云服务商ASIC项目的订单落地情况,这直接关系到其营收规模与利润率改善的可能性。对于浪潮信息等本土JDM厂商,需重点关注其在国产芯片(如昇腾、海光)服务器上的收入占比提升速度,以及能否在互联网市场之外,于利润更丰厚的政企行业市场取得突破,以扭转毛利率下滑的趋势。对于中科曙光、紫光股份等厂商,其投资逻辑则更侧重于在信创政策驱动下,于政府、运营商等高端市场的份额巩固与订单释放节奏。
主要风险在于:全球AI算力需求若不及预期,将直接导致行业产能过剩与价格战加剧;GPU、HBM等关键零部件供应短缺或成本飙升,将进一步侵蚀本已微薄的利润;此外,技术路线的快速迭代(如CPO对传统光模块架构的改变)也可能对现有整机设计带来挑战,要求厂商具备快速响应的研发能力。
6. 下游应用与需求驱动:数据中心、云服务商的资本开支与采购策略
下游应用与需求是驱动整个AI服务器产业链发展的最终引擎。作为算力需求的直接来源和资本开支的主体,全球及国内的云计算服务商(CSP)、数据中心运营商以及积极转型的传统企业,其采购行为与资本开支节奏不仅决定了AI服务器的出货量,更深刻影响着上游技术路线、产品迭代速度以及中游厂商的竞争格局。本章将聚焦于下游核心厂商的资本开支趋势、差异化的采购策略,并分析其行为对上游产业链的传导影响与结构性调整。
6.1 全球及国内核心厂商AI算力资本开支趋势
2024-2026年,全球范围内针对AI算力的资本开支呈现爆发式增长,这直接反映了从大模型训练到推理及新兴智能体应用对算力需求的刚性提升。国内外核心厂商的投入力度与节奏,共同绘制了当前算力基建的扩张图景。
从已披露的数据看,国内头部互联网与云服务商的资本开支在2025年显著加码。腾讯控股2025年的资本性支出计划达到1128.75亿元人民币,较2024年的960.48亿元增长17.5%,持续保持领先的投入规模。阿里巴巴的扩张态势最为迅猛,其2025年资本开支计划高达859.72亿元,较2024年的329.29亿元激增161.1%,显示出阿里云在AI算力领域强烈的追赶决心和资源倾斜。作为第三方数据中心运营商的代表,万国数据2025年的资本开支也规划为46.11亿元,同比增长45.5%,增速高于头部云厂商,体现了第三方算力服务市场在需求拉动下的快速扩容。
全球视角下,北美云服务巨头的资本开支扩张更为激进,成为牵引全球AI硬件需求的核心力量。TrendForce集邦咨询预测,2026年北美五大云服务商(Google、AWS、Meta、Microsoft、Oracle)的资本支出总额将同比增长40%。摩根士丹利的预测更为宏大,其预计2025-2028年大型科技公司在服务器及数据中心基础设施上的总支出将高达2.9万亿美元,这笔巨额投入不仅用于建设全新的AI算力基础设施,也涵盖了对于2019-2021年部署的、已无法满足AI工作负载需求的通用服务器的淘汰替换。这种强劲且持续的需求直接传导至上游,驱动2026年全球AI服务器出货量预计同比增长28%以上,并带动整体服务器市场增长12.8%。
6.2 核心厂商服务器采购策略与执行特征
下游厂商基于自身业务定位、发展阶段与战略考量,形成了风格迥异的采购策略,主要可分为三类典型模式。
第一类是运营商集中集采模式,以中国移动、中国电信为代表。这种模式的核心特征是通过大规模集中招标,以规模优势锁定供应链资源并控制采购成本。例如,中国移动在2025-2026年AI服务器集采中,AI通用计算设备(推理型)的采购金额达51.12亿元,涉及7058台设备,由9家供应商分食;中国电信2024-2025年服务器集采规模更是高达15.6万台,中标金额168亿元。这类采购以满足基础算力网络的普惠性、标准化需求为主,是推动AI算力在更广泛范围部署的重要力量。
第二类是转型企业大规模扩产模式,以协创数据、并行科技等公司为代表。这类企业原本并非算力服务商,但在AI浪潮下通过激进的资本开支和服务器采购,快速向AI算力服务商转型。协创数据在2025年内累计投入近122亿元采购高算力服务器,布局全球四大服务区域,并获得了英伟达NCP(NVIDIA Cloud Partner)资质,展现了其转型的决心与速度。并行科技则在2025年密集发布多笔采购公告,累计金额超6.6亿元,旨在推动公司从外购算力向“自有算力为主”的商业模式转变。这类采购的核心驱动逻辑是抢占AI算力服务市场的份额窗口期,通过大规模前置投入构建竞争壁垒。
第三类是传统云厂商与互联网巨头的战略储备与优化采购模式,以全球的AWS、Azure、谷歌云以及国内的腾讯云、阿里云为代表。它们的采购行为更为复杂和长期化:一方面,为应对AI推理服务、视频生成、智能体等新兴场景带来的算力需求指数级增长(尤其是Token消耗量的激增),需要进行持续的战略性备货;另一方面,面对DRAM、NAND等内存价格的上行趋势,以及AI服务器向高密度、液冷化、高速互联技术的快速演进,头部厂商会通过长期合同提前锁定核心零部件产能与成本,以保障供应链安全并优化总拥有成本(TCO)。2025年国内云厂商多次上调AI算力服务价格,部分产品涨幅超过400%,这从侧面印证了算力供需的紧张格局,也强化了其加大采购以保障服务能力的动机。
6.3 对上游AI服务器产业链的传导影响
下游海量资本开支与差异化的采购策略,对上游产业链形成了全面而深远的拉动效应,同时也暴露并加剧了产业链的某些瓶颈环节。
首先,下游需求直接拉动了上游核心零部件的量价齐升。如第二章和第三章所述,GPU、HBM存储、800G/1.6T高速光模块、用于先进封装的CoWoS产能、以及高阶PCB等环节需求激增,价格维持高位。其中,GPU作为成本核心(占AI服务器成本约70%),其需求直接决定了英伟达等厂商的业绩;而HBM和高速光模块则成为产业链中供需矛盾最突出、最具价格弹性的环节。下游的采购竞争也加剧了上游资源的稀缺性,例如戴尔为争取xAI的50亿美元服务器大单,甚至接受了较低的利润率,这反映出在高端算力资源争夺中下游厂商的激烈竞争与上游供应商的强势地位。
其次,下游的采购行为推动了中游整机制造环节的模式深化与价值重构。面对下游强势的客户,中游整机厂商普遍面临价格竞争与利润压缩的压力。为了突围,ODM/JDM模式不断深化,整机柜、液冷一体化解决方案日益普及,这要求厂商具备更强的系统设计、热管理和供应链整合能力,从而为具备这些能力的厂商提供了差异化竞争的机会和更高的附加值。例如,英伟达GB200等机柜级产品的推出,就显著提升了ODM厂商在系统集成环节的技术难度与价值贡献。
然而,下游需求的爆发也使得产业链的投入瓶颈逐渐显现,主要集中在三个层面:一是能源约束,数据中心电力需求激增,北美及部分地区的电网容量面临挑战,短期依赖燃气轮机缓解,长期需新能源补位,预计2027年后可能出现明显缺口;二是芯片供给,国内受进口限制影响,海外高端GPU供应受限,尽管国内代工厂积极扩产,但长期仍需攻克EUV光刻机等先进制程环节;三是产能约束,HBM、高速光模块、先进封装(CoWoS)等环节因技术壁垒高、扩产周期长,产能持续紧张,制约了整个产业链的最终交付规模。
6.4 生态共建与估值逻辑变化
面对供应链瓶颈与激烈的竞争,下游厂商正积极通过资本与战略合作,与上游及中游企业共建生态,以保障供应、优化技术并降低成本。例如,英伟达投资Coherent和Lumentum各20亿美元,以锁定关键光芯片产能;国内产业界也联合成立了“AI算力生态联盟”,旨在推动芯片、服务器、云服务之间的标准互通与深度适配。
从资本市场估值逻辑看,下游需求的确定性增长使得上游“卖铲人”企业(如GPU、光模块、先进散热厂商)成为最直接的受益者,其估值锚点在于技术领先性、产能保障以及与核心客户的绑定深度。中游整机制造商的估值则更依赖于其获取长期大额合同的能力、数据中心项目的规模与上架率,以及对电力、冷却等运营成本的控制能力。下游云服务商自身的估值,则在传统云计算业务价值之上,增加了对其AI服务收入增长前景与市场份额的评估。
6.5 关键观察与后续跟踪方向
为判断下游需求驱动的持续性与产业链影响,以下关键指标值得重点跟踪:
- 北美云厂商资本开支落地情况:2026年北美五大云服务商40%的资本支出增长目标是全球需求的风向标。需密切关注亚马逊AWS、微软Azure等巨头季度财报中披露的资本开支实际数据及未来指引。若实际增速不及预期,可能预示全球AI算力建设节奏放缓,进而导致上游零部件需求降温与价格回调。
- 国内AI算力服务价格走势:2025年国内云厂商AI算力服务价格大幅上涨是供需紧张的体现。若2026年价格能够维持高位或继续温和上涨,将验证算力需求的强劲与供给的滞后;若价格出现快速回落,则可能表明供给能力提升或需求增长放缓,需要重新评估下游资本开支的可持续性。
- 国产芯片在下游的渗透率:跟踪华为昇腾、海光信息、寒武纪等国产AI芯片在腾讯云、阿里云、运营商及行业客户数据中心中的实际部署比例。国产芯片渗透率的提升是验证国内产业链自主可控进程的关键,也将重塑国内上游芯片与中游服务器厂商的竞争格局。
主要风险在于:若AI大模型商业化落地或新兴应用(如智能体)发展不及预期,将导致算力需求增长放缓,下游厂商可能调整或推迟资本开支计划;全球芯片供应链(特别是高端GPU和HBM)出现剧烈波动或中断,将直接制约下游的算力部署进度;此外,如前所述的能源供给约束若在北美或中国主要数据中心区域提前激化,将成为算力基础设施扩张的硬约束,影响全产业链的增长预期。
7. 产业链价值分布量化分析与紧缺环节识别
在系统拆解了AI服务器产业链的上、中、下游各环节后,本章将进行全局性的量化分析,旨在精确描绘各环节在总价值中的占比分布,并基于此识别当前产业链中供需矛盾最突出、增长约束最显著的紧缺环节。这一分析不仅是对前文各环节深度研究的总结与升华,更是理解当前产业投资焦点、预判未来供应链风险与机遇的关键。
7.1 产业链价值分布:从成本结构到市值映射的双重视角
AI服务器的价值分布呈现出极端集中的特征,与传统服务器以CPU和通用存储为核心的成本结构形成鲜明对比。这种集中性不仅体现在物料清单(BOM)成本上,也在资本市场的市值分布中得到映射,两者共同揭示了产业链的价值高地与潜在认知偏差。
从BOM成本结构看,算力与存储构成绝对双核。 根据对AI服务器物料构成的拆解,其成本高度集中于计算芯片和高端存储,尤其是GPU和HBM。具体分布如下表所示:
表格
复制
环节类型 | AI服务器BOM成本占比 | 传统服务器对应占比 | 核心差异说明 |
GPU(含CPU) | 70%-75%(高端训练机型可达83%) | 约32% | AI算力的绝对核心,英伟达在高端市场占据垄断地位,单机配置GPU数量从2-4片增至8-16片,价值权重极高。 |
HBM高带宽内存 | 30%-40%(单机价值可达1.8万美元) | 约27% | 突破“内存墙”的关键,AI服务器DRAM总价值量是传统服务器的6倍,单机HBM容量需求呈数倍增长。 |
高速光模块 | 5%-10% | <2% | AI集群内部互联带宽需求为传统服务器的5倍以上,端口配置激增,速率向800G/1.6T迭代。 |
先进封装(CoWoS) | 8%-12% | <3% | 高端AI芯片(如英伟达、AMD)性能释放的必要支撑,涉及硅中介层、TSV等复杂工艺。 |
PCB及配套组件 | 5%-8% | 约15% | 虽然占比相对下降,但AI服务器所用PCB的层数、材料(如Low-Dk)和工艺复杂度(HDI)要求大幅提升,单板价值量倍增。 |
注:各环节成本占比之和可能超过100%,因不同机构统计口径(如是否将HBM计入GPU封装成本)及服务器类型(训练/推理)差异所致。
从服务器类型细分,价值分布亦有所不同。如第二章所述,机器学习训练服务器的算力成本占比最高(可达83%),推理服务器中算力与存储成本相对均衡(约50% vs 25%),而基础服务器仍以存储成本为主导(约45%)。这清晰地表明,AI服务器的价值重心已完全向提升计算与数据吞吐效率的环节倾斜。
从资本市场市值映射看,设计与生态环节享有显著溢价。 尽管BOM成本揭示了制造端的价值消耗,但资本市场的估值更反映了各环节的定价权、技术壁垒和长期增长潜力。当前市值分布呈现显著分化:
- GPU与ASIC设计板块占据主导:以英伟达、博通为代表的芯片设计厂商,凭借其深厚的生态护城河(如CUDA)或定制化壁垒,合计占据了产业链市值的大部分权重。英伟达的市值占比高达48.41%,而博通等ASIC厂商也占据了48.23%的份额,这远高于其在单台服务器BOM中的成本占比,凸显了市场对核心知识产权和生态控制力的极高溢价。
- 光模块(含CPO)板块市值突出:该环节以26.49%的市值占比,反映了市场对AI集群高速互连需求爆发性增长的强烈预期,以及中国头部厂商在全球市场的主导地位所带来的成长确定性。
- HBM与先进封装板块市值占比显著偏低:相比之下,HBM和先进封装(CoWoS)环节的市值占比分别仅为0.29%和0.26%。这与它们在当前产业链中面临的最严峻供需缺口和极高技术壁垒形成强烈反差。这种错位可能意味着市场对制造环节的估值尚未充分反映其实际稀缺性和战略价值,或因其参与者(如三星、SK海力士、台积电)业务多元,AI相关业务未被单独充分定价。
7.2 紧缺环节识别:供需矛盾与技术瓶颈的双重约束
基于价值分布和供需分析,当前AI服务器产业链的瓶颈已从单一的芯片算力不足,蔓延至确保算力得以实现和高效协同的多个基础制造与材料环节。紧缺程度根据供需缺口大小、技术壁垒高度和扩产难度进行排序,核心瓶颈如下:
1. 先进封装(CoWoS):AI芯片产能释放的终极瓶颈 CoWoS等先进封装能力是制约英伟达、AMD等高端AI芯片出货量的最大硬约束。尽管台积电持续扩产,月产能从2024年的3.2万片增至2025年的7.5万片,并计划在2026年达到10.5-12万片,但生产线始终处于满载状态。2026年CoWoS需求预计增长81%,产能扩张速度远跟不上需求爆发,供需缺口持续扩大。其技术壁垒极高,涉及硅中介层、TSV(硅通孔)及混合键合技术,扩产周期长达2-3年。目前英伟达订单占据台积电CoWoS产能的59%,头部客户锁定了大部分产能,导致行业整体供给紧张。下一代混合键合技术(如3μm间距)的良率爬坡是新的挑战,进一步限制了产能释放。
2. HBM高带宽内存:供需缺口持续扩大的战略资源 HBM是AI算力的“数据燃料”,其供需矛盾在2025-2026年达到顶峰。2025年全球HBM供需缺口约9.11亿GB,供给满足率(S/D Ratio)仅为44.7%;预计2026年缺口将扩大至9.2亿GB,供给满足率降至27.0%。美光科技2026年的HBM供应量已全部售罄,SK海力士和三星的产能也面临巨大压力。技术瓶颈在于堆叠层数向12层、16层演进时,良率面临指数级下降风险。此外,HBM生产消耗的晶圆量是标准DRAM的3倍以上,且原厂将超过80%的先进产能转向HBM,导致消费级DRAM供应收缩,引发存储市场全局性紧张。
3. 高速光模块核心组件:光电芯片短缺制约产能 AI数据中心对高速光连接的需求激增,但供应链面临核心光电芯片短缺的制约。2026年,800G和1.6T光模块的市场需求分别为约6000万个和3000万个,但预计实际出货量仅能达成需求的60%-50%,头部供应商产能已全部售罄。瓶颈主要在于:EML(电吸收调制激光器)和 CW-LD(连续波激光器) 等核心光芯片产能配置不足,供应陷入紧张;用于连接外部电缆的 Paddle Card,其制造工艺与HBM IC载板重叠,产能被挤占导致交期严重延长。此外,CPO技术所需的低噪声、高功率激光器良率不足30%,且磷化铟(InP)外延片产能稀缺,制约了下一代技术的落地。
4. 其他配套环节的结构性短缺 除上述三大核心瓶颈外,部分配套环节也出现结构性紧张:高阶PCB(18-22层)及IC载板因需求激增、扩产周期长而产能紧张,交货周期延长。随着单机柜功率突破120kW,液冷散热系统(特别是冷板、CDU)和48V供电架构相关设备的需求爆发,产能也面临挑战。
7.3 关键跟踪指标与趋势验证
为动态评估上述紧缺环节的演变,并为投资决策提供依据,建议重点关注以下可跟踪、可验证的指标:
- 台积电CoWoS产能与利用率:若其月产能按计划在2026年Q3突破10万片,但产能利用率仍维持在100%或接近满载,则表明先进封装的供需缺口并未缓解,AI芯片交货周期可能继续延长,产业链增长持续受此约束。
- HBM价格与层数迭代:监控HBM3e等主流产品的合同价格季度涨幅。若年化涨幅持续超过10%,则表明高端产品紧缺加剧。同时,关注HBM4量产时间表,若提前至2026年中,可能部分缓解远期压力,但会加剧短期产能切换的紧张。
- 光模块厂商的芯片获取与出货指引:关注中际旭创、新易盛等龙头厂商对上游光芯片供应情况的描述及季度出货量指引。若厂商持续提及芯片短缺限制出货,或出货指引低于市场预期,则验证核心组件瓶颈的存在。同时,跟踪1.6T光模块出货量占比,若2026年占比快速超过30%,说明技术迭代加速,但核心组件短缺风险可能同步放大。
- 液冷渗透率与供应商订单:关注国内数据中心招标中液冷服务器的占比,以及英维克、申菱环境等厂商的液冷业务新增订单金额和增速。若液冷在高端训练服务器中的渗透率快速超过95%,且头部厂商订单饱满,则表明散热环节正成为新的产能制约点和高增长领域。
趋势验证逻辑:若上述指标显示CoWoS产能扩张持续滞后、HBM价格坚挺、光芯片短缺延续,则AI服务器出货量增速将受制于这些瓶颈,算力租赁价格可能维持高位,上游设备与材料厂商的议价能力增强。反之,若任何一环的产能瓶颈出现超预期缓解,则相应环节的紧缺逻辑可能减弱。
7.4 主要风险提示
本分析基于当前可见的供需数据与技术发展路径,但未来演变仍面临多重风险:
- 技术迭代与替代风险:若CPO技术商业化进程远超预期,可能改变光模块的产业形态和价值分布;若存算一体等新兴架构取得突破,可能长远改变对HBM和先进封装的依赖程度。
- 需求波动风险:若全球宏观经济下行或AI大模型商业化应用遇冷,导致下游云服务商资本开支收缩,当前紧张的供需格局可能快速反转,引发产品价格下跌和产能过剩。
- 供应链地缘政治风险:先进封装、HBM制造等关键环节产能高度集中于亚洲个别地区和厂商,地缘政治冲突或出口管制政策变化可能导致全球供应链中断,风险不可低估。
- 产能扩张超预期风险:尽管当前扩产艰难,但若巨头资本开支极端倾斜,或技术良率突破性提升,可能导致2027年后产能集中释放,供需关系逆转。
结论:综合价值分布与紧缺性分析,AI服务器产业链的价值重心正从单一的GPU算力,向支撑算力实现的HBM存储、先进封装(CoWoS)和高速互连(光模块/CPO) 等环节扩散。当前最紧缺的环节依次为先进封装、HBM和高速光模块核心芯片,这些环节的供需紧张格局预计将持续至2027年。掌握这些环节核心技术的企业拥有最强的定价权和增长确定性。然而,资本市场对部分制造环节(如HBM、先进封装)的估值与其战略稀缺性存在一定错配,这或许意味着潜在的价值发现机会。投资者在追逐高增长的同时,需密切关注上述验证指标的变化,以动态评估紧缺逻辑的持续性。
8. 高增长与潜在低估环节:技术趋势与市场认知错位下的投资机会
在系统剖析了AI服务器产业链的价值分布与紧缺环节后,本章将进一步聚焦于那些正处于技术爆发拐点、市场认知尚未充分定价的细分领域。投资机会往往蕴藏于技术趋势与市场需求共振的“高增长赛道”,以及市场关注度与基本面价值存在显著错位的“潜在低估环节”。识别这些领域,对于把握产业演进中的结构性阿尔法至关重要。
8.1 核心高增长赛道:技术迭代与需求共振的爆发点
当前,有三个细分领域正因底层技术范式的革新与下游需求的刚性爆发,而展现出超越行业平均水平的增长潜力,它们分别是液冷散热、共封装光学(CPO)以及专用集成电路(ASIC)。
液冷技术:从“试点选项”迈向“数据中心标配”的指数级增长 液冷技术的高增长逻辑根植于AI算力功耗跃升带来的物理极限挑战与全球节能减排政策的双重驱动。随着单芯片功耗突破千瓦级,传统风冷已触及散热天花板,而液冷凭借其超高的热导率和热容量成为唯一可行的解决方案。这一趋势正从技术可行性转向商业必要性,中国“东数西算”工程对新建数据中心PUE低于1.3的强制要求,以及欧盟将液冷纳入数据中心能效指令,都从政策层面加速了其普及。
市场数据印证了其爆发性。中国液冷服务器市场在2024年规模达23.7亿美元,同比激增67.0%,预计2025年将突破33.9亿美元;2024-2029年的复合年增长率(CAGR)预计高达46.8%。技术路线上,冷板式液冷因兼容性好、改造成本相对较低而占据当前主流,可将PUE降至1.15左右。而浸没式液冷(特别是相变浸没)被视为终极方案,其PUE可低至1.05,节能效果超40%,虽处于商业化早期,但代表了未来高密度算力的方向。投资机会不仅在于整机散热方案,更在于上游价值量提升的环节,如冷却液、精密冷板、CDU(冷量分配单元)及快速接头等,在英伟达GB200等机柜级方案中,单套液冷系统价值量已超过20万元人民币。
CPO(共封装光学):重构互连架构的下一代核心技术 CPO的高增长潜力源于其对AI集群通信瓶颈的根本性突破。通过将光引擎与交换芯片直接封装,CPO将电信号传输距离从厘米级压缩至毫米级,能显著降低功耗(40%-70%)和延迟,是支撑未来102.4T乃至更高速率交换的必然选择。尽管目前面临良率、维护性等挑战,但其商业化路径已日益清晰。英伟达已明确2025-2026年“双代递进”的商用节奏,博通、英特尔等巨头也在积极推进相关产品。
市场前景极为广阔。预测显示,CPO市场规模将从2024年的4600万美元爆炸式增长至2030年的81亿美元,年复合增长率高达137%。另有分析指出,2026年光互连(含CPO)市场规模将激增至260亿美元,年增长率达60%。其核心价值在于解决Scale-up(节点内)高带宽互连需求,预计到2027年,CPO端口在800G和1.6T总出货量中的占比将接近30%。这意味着,当前在硅光、光引擎、高速连接器等领域有深厚积累的公司,将率先受益于这场互连技术革命。
ASIC芯片:与GPU并驾齐驱的第二增长曲线 ASIC的高增长逻辑在于AI计算从“训练为主”向“推理为王”阶段演进时,对能效和总拥有成本(TCO)的极致追求。与通用GPU相比,针对特定算法优化的ASIC能效比极高,在规模化推理场景下成本优势显著。这驱动了谷歌、亚马逊、微软等头部云服务商大规模部署自研TPU、Trainium/Maia等芯片,以降低对英伟达的依赖并优化其服务成本。
市场渗透率正在快速提升。2024年全球ASIC芯片市场规模约为120亿美元,预计2024-2027年间CAGR达34%,2027年有望突破300亿美元。在AI服务器领域,基于ASIC的服务器出货占比预计在2026年提升至27.8%,增速超越基于GPU的服务器。博通更是预测,2027年AI XPU(含ASIC)和网络的可服务市场将达到600亿至900亿美元。投资机会不仅在于ASIC设计公司本身,更在于其带动的整个定制化产业链,包括先进封装、测试及配套的PCB/散热方案,这些环节的价值量往往被市场低估。
8.2 潜在低估环节:市场认知与产业价值的错配
除了上述显性的高增长赛道,产业链中还存在一些环节,其基本面价值因技术复杂性高、传导链条长或市场关注点集中在上游而未被充分认知,构成了潜在的价值洼地。
上游基础材料:“五层传导链”末端的隐形冠军 AI服务器需求的激增,正通过一个漫长的“五层传导链”向上游基础材料领域传导,最终在电子布、电极箔等看似传统的领域引发结构性短缺,但市场对此认知不足。其传导路径为:AI服务器需求 → PCB用量大增 → 覆铜板(CCL)需求爆发 → 电子布需求激增 →织布机及玻纤纱需求上升。
其中,电子布作为PCB的核心增强材料,在高端Low-Dk(低介电常数)覆铜板中成本占比高达25%-40%。由于AI服务器对高速信号完整性的要求,对高端Low-Dk电子布的需求呈指数增长,而供给端扩产周期长、技术壁垒高,导致2026年普通电子布价格累计涨幅已超80%,AI专用Low-Dk二代布报价较年初翻倍。同样,电极箔作为铝电解电容器的关键材料,也因AI服务器电源功率倍增、电容用量增加而需求旺盛。这些材料环节的龙头企业深度嵌入了AI算力供应链,业绩弹性显著,但因其处于产业链最上游且产品看似“传统”,市场关注度和估值与其实际产业地位及增长潜力存在明显错配。
测试设备:算力升级不可或缺的“卖水人”测试设备是保障AI服务器高性能、高可靠性的关键环节,其需求随芯片复杂度、系统集成度提升而同步爆发,但作为支撑性产业容易被忽视。AI算力升级对测试提出了全新挑战:高功率芯片需进行严格的功耗与热测试;液冷系统涉及密封性、腐蚀性与散热效率测试;800G/1.6T光模块及CPO技术要求极高的高速信号完整性测试(频率需突破112Gbps)。
这带来了“量价齐升”的市场机遇。全球集成电路测试设备市场在2024年已达75.4亿美元,预计2026年将增长至97.7亿美元。专注于AI服务器相关测试的设备厂商,其业务正快速成长,部分头部厂商来自AI服务器的业务收入占比预计在2025年可达20%-30%。随着HBM堆叠层数增加、服务器主板测试复杂度提升,测试设备的需求和技术门槛将持续攀升。该环节技术壁垒高、竞争格局好,其增长与AI服务器出货量及技术迭代强度高度相关,具备高确定性,但市场对其在AI时代价值的重估可能尚不充分。
ASIC产业链配套环节:估值与产业地位的错配 正如前文所述,ASIC服务器出货量占比正快速提升,预计2026年将达到27.8%。然而,当前资本市场的主要目光仍聚焦于GPU及其直接供应链。这导致服务于ASIC芯片的配套产业链,如适用于ASIC定制架构的高性能PCB、专用散热模组、测试接口等,其市场增长潜力尚未在相关公司的估值中得到充分反映。这些环节的厂商可能同样受益于ASIC的崛起,但因其业务不直接面向终端品牌或不如GPU芯片显眼,而处于估值洼地。
8.3 投资验证与风险提示
关键验证指标 为把握上述高增长与低估环节的投资机会,并动态验证其逻辑,建议紧密跟踪以下指标:
- 液冷渗透率与招标数据:跟踪国内主要数据中心项目招标文件中液冷服务器的占比,以及头部液冷厂商(如英维克、申菱环境)的季度订单增速。若2025年液冷在新建数据中心渗透率突破30%,且头部厂商订单持续高增长,将强化液冷赛道的高景气度逻辑。
- CPO技术商用化进展:关注英伟达、博通等巨头在财报或技术大会上关于CPO产品的路线图更新及客户导入情况。若2026年出现规模化的CPO商用订单,或800G/1.6T光模块中CPO端口占比开始快速提升,将标志其商业化拐点来临。
- 上游材料价格与产能:监测高端Low-Dk电子布、高压电极箔的市场价格走势及主要生产商的产能利用率与扩产计划。若价格持续上涨且龙头公司产能持续紧张,将验证上游材料环节的稀缺性,驱动其价值重估。
- 测试设备厂商的AI业务占比:关注国内外领先测试设备公司财报中,与AI服务器/高端芯片相关的业务收入占比变化。若该占比持续快速提升(如向30%以上迈进),则表明其增长引擎已成功切换至AI赛道,业绩弹性将得到释放。
主要风险与结论反转条件 尽管上述环节前景广阔,但投资仍需警惕以下风险:
- 技术迭代不及预期风险:若浸没式液冷降本速度过慢、CPO良率问题长期无法解决,或ASIC在更复杂训练场景中的应用受阻,可能导致相关技术的市场渗透率提升速度慢于预期,高增长逻辑被证伪。
- 供需格局逆转风险:若AI服务器整体需求增速放缓,或上游材料(如电子布)、测试设备的产能扩张速度超预期,可能导致供需紧张局面提前缓解,相关环节的产品价格和厂商盈利能力面临下行压力。
- 市场认知快速修复风险:对于当前潜在的低估环节,一旦其价值被市场广泛认识,可能引发估值快速修复,短期涨幅过大后透支未来成长空间。反之,若市场持续忽视,则价值发现的过程可能漫长。
- 产业链政策与标准变动风险:数据中心能效标准、芯片互连协议等产业政策与技术标准的变动,可能影响液冷、CPO等技术的推广节奏和具体技术路线的选择,带来不确定性。
核心结论:在AI算力基础设施建设的宏大叙事中,投资机会呈现多层次分布。液冷、CPO、ASIC代表了由技术颠覆和需求刚性驱动的“明线”高增长赛道,其趋势相对明确,市场关注度高。而上游核心材料(电子布、电极箔)、测试设备以及ASIC配套产业链则构成了“暗线”潜力环节,它们受益于产业发展的确定性,却因市场认知时滞或关注度偏移而存在价值低估的可能。成功的投资需要同时洞察技术趋势的“明线”与产业链价值传导的“暗线”,在市场认知形成或修正之前进行布局,并持续用可验证的产业指标跟踪逻辑的兑现程度。
9. 中外上市公司全景对比:财务、估值、增长前景与投资逻辑差异
在完成了对AI服务器产业链从上游核心组件到下游应用需求的系统性分析后,本章将视角聚焦于资本市场,对参与其中的中外上市公司进行全景式对比。通过剖析其在财务表现、估值水平、增长前景及投资逻辑上的显著差异,旨在揭示不同市场环境下投资者的偏好、定价逻辑以及潜在的投资机会与风险。这一对比不仅是对前文产业链分析的资本化映射,更是理解全球AI算力竞赛中不同参与者角色与价值实现路径的关键。
9.1 核心财务与估值指标跨市场对比
中外AI服务器产业链上市公司在营收规模、盈利能力及估值水平上呈现出结构性差异,这深刻反映了各自在产业链中的定位、技术壁垒、市场格局及投资者预期的不同。
从营收与盈利规模看,美股龙头呈现绝对领先优势,而A股厂商增长迅猛但盈利承压。 以2024年或最近财年数据观察,英伟达作为全球AI算力的核心引擎,其营收规模(按汇率换算后超1.5万亿元人民币)和净利润(8616亿元人民币)均达到令人瞩目的量级,是A股龙头工业富联营收的6倍以上,净利润更是A股主要样本公司总和的数倍。这凸显了占据产业链最顶端、拥有极高定价权和生态控制力的芯片设计厂商所能创造的巨大价值。相比之下,A股上市公司中,工业富联作为全球最大的ODM制造商,营收规模领先(超2500亿元人民币),但净利润率仅约4.2%,体现了中游制造环节的规模效应与微利特征。浪潮信息、紫光股份等国内品牌/系统集成商营收在数百亿量级,但浪潮信息因激烈的市场竞争和JDM模式下的“以价换量”策略,净利润率已降至极低水平。值得注意的是,中科曙光凭借其在高端计算市场的定位和与海光信息的协同,毛利率高达26.56%,在A股同业中盈利能力突出。
从估值水平看,A股市场整体赋予更高的成长溢价,而美股更聚焦龙头护城河,港股估值相对理性。 市盈率(PE_TTM)是观察市场预期的关键窗口。A股厂商如中科曙光(61.33倍)、神州数码(50.42倍)等估值显著高于海外同业,这反映了国内市场对AI算力国产替代、自主可控战略的高度期待和成长性溢价。即便盈利承压的浪潮信息,其PE也达40.09倍,市场似乎更关注其市场份额和远期格局而非短期利润。美股市场中,英伟达40.16倍的PE与其惊人的盈利规模和增速相比,并未显得极端高估,市场更看重其难以撼动的生态壁垒和持续创新能力的贴现。戴尔、超微电脑等硬件厂商的PE则多在20倍上下,相对理性。港股市场估值最为保守,联想集团PE仅12.57倍,中兴通讯为23.54倍,与其全球化业务和相对稳健的增长预期相匹配。市净率(PB)方面,英伟达高达30.66倍,与A股中科曙光(6.03倍)、工业富联(7.08倍)形成鲜明对比,进一步印证了市场对无形资产(技术、生态)与有形资产(制造)的估值差异。
表:中外代表性AI服务器产业链上市公司核心指标对比(基于最新可用数据)
表格
复制
市场 | 证券简称 | 最新营收(亿元,人民币) | 最新净利润(亿元,人民币) | 销售毛利率(%) | PE_TTM(倍) | PB_LF(倍) | 营收同比增速(%) |
A股 | 工业富联 | 2510.78 | 105.97 | 7.35 | 30.70 | 7.08 | 56.52 |
A股 | 浪潮信息 | 354.70 | 6.05 | 6.64 | 40.09 | 4.59 | -24.30 |
A股 | 中科曙光 | 31.99 | 1.92 | 26.56 | 61.33 | 6.03 | 23.71 |
港股 | 联想集团 | 4412.01 | 99.84 | 15.08 | 12.57 | 2.63 | 18.03 |
港股 | 中兴通讯 | 349.88 | 13.10 | 28.28 | 23.54 | 1.37 | 6.13 |
美股 | 英伟达 | 15495.71 | 8616.00 | 71.07 | 40.16 | 30.66 | 65.47 |
美股 | 戴尔科技 | 8147.59 | 426.07 | 20.00 | 22.86 | -54.95 | 18.80 |
美股 | 超微电脑 | 1270.17 | 40.82 | 7.15 | 18.59 | 2.32 | 52.39 |
9.2 增长前景与产业链竞争格局分析
未来增长预期的分化,与各公司所处的产业链环节、技术路线及市场区域紧密相关,中外厂商的发展路径和驱动力存在本质区别。
海外厂商:依托技术领先与全球市场,增长由高端创新与生态扩张驱动。 以英伟达、博通为代表的芯片巨头,其增长前景与全球AI算力投资周期高度绑定,且受益于其不断扩大的软硬件生态。英伟达下一代Rubin平台的推出、博通在AI ASIC和高速网络芯片市场的深度渗透,都预示着它们将继续分享行业增长中最丰厚的利润部分。戴尔、HPE等品牌整机商则受益于企业级AI基础设施升级和混合云订阅模式转型,增长虽可能慢于芯片厂商,但更具持续性。北美云服务商(CSP)高达40%的资本支出增长,是这些海外上游及中游厂商最确定的短期驱动力。
国内厂商:增长核心在于国产替代深化、政策驱动与内需市场释放。 对于A股上市公司而言,增长逻辑具有鲜明的中国特色。首先,国产替代是核心主线。随着外部限制持续,华为昇腾、海光信息、寒武纪等国产芯片的渗透率提升,将直接带动中科曙光、浪潮信息、华为系服务器等整机厂商的业绩。其次,政策驱动的市场(如“东数西算”智算中心、运营商集采、党政及行业信创)是重要增长极。紫光股份(新华三)、中科曙光等在这些领域具备渠道和资质优势,增长确定性较强。最后,国内互联网公司、垂直行业企业的AI算力需求正在快速释放,为本土服务器厂商提供了广阔市场。根据预测,浪潮信息、紫光股份等公司在2027年前仍有望保持20%以上的净利润复合增速,显示出市场对其在国产化浪潮中份额提升的预期。
竞争格局的差异进一步固化了增长路径的分野。全球市场呈现“上游芯片寡头垄断,中游制造集中化”的格局,中国厂商如工业富联已在制造环节占据全球主导。而在中国市场,竞争则更多在“国产生态内部”展开,形成了华为、浪潮、新华三等主导的多元竞争局面,技术路线(如昇腾 vs. 其他国产GPU)、商业模式(JDM vs. 渠道销售)和客户资源(互联网 vs. 政企)是竞争的关键维度。
9.3 投资逻辑差异总结:技术溢价、替代红利与估值修复
基于财务、增长和竞争格局的对比,中外市场对AI服务器产业链的投资逻辑存在根本性差异,这决定了资金流向和估值体系的不同。
A股市场:聚焦“国产替代”与“成长突破”,偏好政策受益与技术突破标的。 A股投资者的核心逻辑在于寻找和投资于中国AI算力自主化进程中的核心载体。这导致投资偏好呈现两个特征:一是给予具备核心技术突破能力的公司极高溢价,如拥有自研CPU/DCU的海光信息、在AI计算芯片持续迭代的寒武纪,以及参与高端计算系统研发的中科曙光,它们的估值(PE/PB)往往远超其当前盈利水平,反映了市场对技术自主“从0到1”价值的重估。二是紧密跟踪政策驱动下的订单和份额变化,在信创、运营商集采等确定性较强的领域,相关公司的业绩兑现节奏成为投资的关键依据,估值中包含了较高的政策确定性溢价。整体而言,A股投资逻辑更具主题性和成长性,对短期盈利容忍度较高,但波动也可能更大。
美股市场:聚焦“技术垄断”与“生态护城河”,崇尚盈利质量与可持续性。 美股投资者的逻辑更侧重于识别和持有具备长期可持续竞争优势的行业领袖。英伟达是这一逻辑的完美体现,其估值不仅反映了当前惊人的盈利增长,更包含了对其CUDA生态护城河、持续研发创新能力以及未来在机器人、汽车等新市场扩张潜力的贴现。对于超微电脑、戴尔等硬件厂商,市场则更关注其营收增长的可持续性、毛利率变化以及与核心客户(如大型CSP)关系的稳定性,估值相对理性。美股逻辑更注重基本面与现金流的匹配,对盈利质量和商业模式的要求更为苛刻。
港股市场:兼具“中国成长”与“全球估值”,关注价值修复与分红回报。 港股作为离岸市场,其投资者结构导致估值体系介于A股的高成长溢价与美股的盈利贴现之间。对于联想集团、中兴通讯这类业务横跨中外市场的公司,市场既看中其受益于中国数字化建设的成长性,也考量其全球业务的稳健性和面临的竞争压力,因此估值通常低于A股同业,但可能高于业务纯海外的公司。港股投资逻辑中,对低估值下的价值修复、稳定的分红回报以及全球流动性环境的变化更为敏感。
9.4 关键跟踪指标与跨市场投资启示
对于希望在全球范围内配置AI算力资产的投资者而言,理解上述差异是基础,而建立一套跨市场可跟踪的验证体系则更为关键。
核心跨市场跟踪指标:
- 国产芯片替代进度指标:这是影响A股逻辑强度的最关键变量。需持续跟踪海光信息、寒武纪等国产AI芯片的季度出货量、在头部云厂商和运营商项目中的中标份额,以及国产大模型(如DeepSeek)基于国产算力的训练与推理占比提升情况。替代速度超预期将强化A股整机与芯片公司的增长逻辑。
- 全球云厂商资本开支(Capex)指引:这是美股及全球产业链需求的晴雨表。重点分析亚马逊AWS、微软Azure、谷歌云等巨头季度财报中的Capex实际支出及未来指引,其变化直接影响英伟达、博通、工业富联等全球供应链公司的业绩预期。
- 技术迭代与产品周期:关注英伟达、AMD、英特尔等巨头的产品发布会及技术路线图更新(如Rubin平台、HBM4、CPO商用化),这些事件可能引发全球产业链技术路线的重新评估,影响从芯片到整机的各环节公司竞争力。
- 地缘政策与供应链动态:美国对华半导体出口管制政策的任何变化、中国在算力基础设施领域的新政策(如算力券、智算中心建设标准),都会直接冲击中外市场的投资逻辑和公司基本面,需要持续密切监测。
跨市场投资启示: 基于对比分析,可得出以下启示:首先,投资美股应聚焦于拥有绝对技术领导力和生态控制力的“核心资产”(如英伟达),享受行业β与公司α的双重红利,但对估值需有更高要求。其次,投资A股应深入产业链研究,精准识别在国产替代浪潮中技术真正突破、份额有望持续提升的“核心环节”公司(如高端计算系统、关键零部件材料),容忍其早期的盈利波动,分享国家战略下的成长红利。最后,港股可能提供一些“折价”的中国成长性机会,适合寻找业务稳健、估值具备安全边际、且受益于行业景气的公司,作为组合中的配置性选择。
主要风险在于:全球AI需求周期若发生转折,将无差别冲击所有市场;技术路线的突变(如ASIC或新架构对GPU的替代加速)可能重塑全球竞争格局,颠覆现有龙头地位;地缘政治风险的升级可能导致全球产业链割裂,使当前基于全球化分工的投资逻辑失效。投资者需在拥抱产业趋势的同时,对上述风险保持清醒认识。
10. 核心结论、投资启示、风险提示与未来展望
10.1 核心结论:AI算力产业链的演进、价值分布与关键瓶颈
本报告通过对AI服务器与集群全产业链的系统性拆解,揭示了在AI大模型驱动下,一个技术密集、价值高度集中且供需关系紧张的产业图景正在加速形成。核心结论可归纳为以下五点:
第一,AI算力需求正从训练向推理扩散,驱动异构计算成为主流,技术路线呈现多元化。 当前,GPU凭借其通用性和成熟的CUDA生态,仍是AI模型训练的绝对主力,但ASIC凭借在推理场景下的极致能效比,正成为云服务商自研芯片和规模化部署的关键选择,市场份额快速提升。FPGA和CPU则在特定边缘场景和系统调度中扮演重要角色。这种“CPU+GPU+ASIC+FPGA”的异构计算格局,标志着单一架构通吃的时代已经结束,算力供给正根据工作负载特性进行精细化配置。
第二,产业链价值分布呈现极端集中与结构性转移特征。 AI服务器的成本结构与传统服务器存在本质差异,价值高度向上游核心组件倾斜。在高端训练服务器中,GPU的成本占比高达70%-75%,部分机型甚至可达83%,是绝对的价值核心。与此同时,为支撑GPU算力释放和集群高效协同,HBM高带宽内存和高速互连(光模块/CPO)的价值占比显著提升,分别达到23.64%和5%-10%,成为新的价值高地。这种价值分布表明,投资AI算力基础设施,核心在于投资其“大脑”(计算芯片)、“高速记忆体”(HBM)和“神经网络”(高速互连)。
第三,全球供应链面临多重结构性瓶颈,最紧缺环节依次为先进封装、HBM和高速光模块核心芯片。 随着需求爆发,产业链的瓶颈已从单一的算力不足,蔓延至确保算力实现的制造与材料环节。其中,台积电的CoWoS等先进封装产能是制约高端AI芯片(如英伟达、AMD)出货的终极瓶颈,尽管持续扩产但仍供不应求。HBM因技术壁垒高、扩产周期长,2025-2026年供需缺口持续扩大,美光等厂商的远期产能已全部售罄。此外,800G/1.6T光模块所需的EML等核心光芯片也陷入短缺,制约了最终产品的出货量。这些瓶颈预计将持续至2027年,使得掌握相关技术的企业拥有强大的定价权。
第四,中外市场呈现差异化发展路径与竞争格局。 全球市场由英伟达在芯片设计、台积电在制造、以及中国厂商在光模块制造等环节占据主导,呈现寡头垄断与专业分工特征。中国市场则在外部压力与内部政策驱动下,加速国产替代进程,形成了以华为昇腾、海光信息、寒武纪为代表的国产芯片阵营,以及浪潮信息、华为、新华三“三足鼎立”的整机市场格局。国产大模型与国产芯片的“Day 0”适配,标志着国产生态正从“可用”向“好用”迈进。
第五,资本市场估值逻辑反映技术壁垒与增长预期,存在认知错配机会。 美股市场给予英伟达等拥有绝对技术和生态壁垒的龙头公司高估值,聚焦其长期护城河。A股市场则对国产替代和技术突破赋予显著成长溢价,但对部分高景气制造环节(如HBM、先进封装)的估值与其战略稀缺性尚不匹配。同时,一些受益于产业发展的“隐形”环节,如上游电子布、电极箔等核心材料,以及AI测试设备,其价值尚未被市场充分认知,存在潜在的价值发现机会。
10.2 投资启示:从确定性赛道与低估环节中寻找阿尔法
基于以上核心结论,投资者可沿以下两条主线构建投资组合,在拥抱产业趋势的同时,寻求超额收益:
主线一:聚焦高增长、高确定性的核心赛道。
- 上游“卖铲人”优先:在产业链价值最集中、技术壁垒最高的环节中,龙头公司具备最强的业绩确定性和定价权。重点关注:全球GPU及AI计算芯片龙头(英伟达、AMD);在ASIC和高速网络芯片领域占据主导的厂商(博通);以及全球HBM市场的核心供应商(SK海力士、三星、美光)。
- 拥抱技术迭代红利:积极布局因技术范式革新而迎来爆发性增长的细分领域。包括:液冷散热(英维克、维谛技术、申菱环境),其渗透率正从“可选”变为“刚需”;CPO(共封装光学) 及其上游光引擎、硅光技术厂商(中际旭创、新易盛、天孚通信),这是下一代高速互连的必然方向;以及伴随ASIC崛起的定制化芯片设计及配套产业链。
主线二:挖掘市场认知错配下的潜在低估环节。
- 上游核心材料:AI服务器需求的激增正通过产业链向上游基础材料传导,导致高端电子布、电极箔等出现结构性短缺,相关龙头企业深度受益但关注度较低,存在价值重估空间。
- 关键支撑设备:测试设备作为保障AI服务器性能和可靠性的“卖水人”,需求随产品复杂度提升而同步爆发,且技术壁垒高,相关厂商的AI业务占比快速提升,成长确定性被低估。
- A股国产化核心载体:在国产替代战略下,具备真正核心技术突破能力(如海光信息、寒武纪)或在高端计算系统领域拥有绝对优势的厂商(如中科曙光),其长期成长价值可能尚未被完全定价,尤其是在盈利波动阶段。
投资策略上,建议采取“全球龙头配置+国产核心成长+细分环节挖掘”的组合策略。同时,紧密跟踪验证指标,如北美云厂商资本开支、国产芯片渗透率、液冷招标占比及关键材料价格等,以动态评估投资逻辑的兑现程度。
10.3 风险提示:多重不确定性下的审慎考量
尽管AI算力产业前景广阔,但投资者必须清醒认识其面临的潜在风险:
- 技术迭代与路线风险:这是最核心的风险之一。若CPO、存算一体等颠覆性技术商业化进程远超预期,可能重塑现有产业链格局,对传统优势厂商构成挑战。同时,若英伟达下一代平台能效比大幅提升,可能延缓ASIC的替代速度;反之,若ASIC在训练领域取得突破,则可能动摇GPU的统治地位。
- 需求不及预期风险:AI算力投资的最终回报取决于大模型商业化落地和新兴应用(如智能体)的普及速度。若全球宏观经济下行或AI应用创收乏力,导致主要云服务商(CSP)削减资本开支,将引发全产业链需求收缩、产能过剩和价格战,当前紧张的供需格局可能快速反转。
- 供应链与地缘政治风险:产业链关键瓶颈环节(如先进封装、HBM、光芯片)的产能高度集中于特定地区和厂商,地缘政治冲突、出口管制升级或自然灾害可能导致供应链中断,影响全球算力建设进度。此外,美国对华半导体技术的持续限制,是国内产业链发展最大的外部不确定性。
- 能源与基础设施约束风险:AI数据中心的功耗激增对地区电网构成巨大压力。北美及部分中国地区可能面临电力基础设施扩容跟不上算力增长的问题,这将成为算力中心建设的物理硬约束,可能推迟项目上线或推高运营成本。
- 估值与市场情绪风险:尤其是A股市场,部分公司估值已包含较高的成长与国产替代预期。一旦业绩兑现不及预期,或产业政策出现波动,可能面临估值回调压力。全球市场的流动性变化也会影响科技股的整体估值水平。
10.4 未来展望:从硬件竞赛到生态协同与效率优化
展望未来,AI服务器与集群产业的发展将超越单纯的硬件性能竞赛,向更深层次的生态协同和全栈效率优化演进:
短期(1-2年),产业焦点仍是解决当前的供应链瓶颈,全力满足爆发式的算力需求。CoWoS产能的爬坡、HBM新工厂的投产、1.6T光模块的规模上量将是关键看点。同时,国产芯片在更多场景下的验证与替代将继续深化。
中期(3-5年),技术路线将更加清晰并开始分化。CPO技术有望实现规模化商用,逐步在超大规模数据中心内部取代部分可插拔光模块。液冷技术将从冷板式为主向浸没式等更高效方案探索。ASIC与GPU将在训练和推理市场形成更稳定的分工格局。更重要的是,软件定义硬件和异构计算统一编程框架的重要性将凸显,谁能更好地简化开发、提升算力利用率,谁就能赢得更多客户。
长期,AI算力基础设施将朝着 “融合化”与“绿色化”发展。计算、存储、网络之间的边界将进一步模糊,存算一体、光计算等新架构可能从实验室走向产业化。与此同时,在“双碳”目标下,从芯片能效、液冷散热到数据中心绿电使用,整个产业链的能耗效率将成为核心竞争力。最终,AI算力将像电力一样,成为一种高效、普惠、绿色的基础资源,支撑千行百业的智能化转型。
本报告揭示的,不仅是一个千亿级市场的构成与价值分布,更是一场关乎未来科技制高点的全球竞赛。对于投资者而言,理解其内在逻辑,识别其中的确定性与风险,是在这场波澜壮阔的产业变革中把握机遇的前提。


