展会资讯
AI行业上下游全链路分析:从GPU到电力,真正的主线才刚刚扩散
2026-04-27 11:33
AI行业上下游全链路分析:从GPU到电力,真正的主线才刚刚扩散
过去两年,AI行情给市场最大的误导,是让很多人以为它只是“芯片行情”。

第一轮,大家盯着GPU;第二轮,资金开始找HBM、存储、服务器;到了现在,行情已经不再是单点爆发,而是在沿着一条非常清晰的工业链条外溢:

芯片 → 存储 → 服务器 → 网络 → 散热 → 电力 → 云平台 → 应用分发。

这不是简单的“AI概念扩散”,而是一场从“硅片”到“原子”的基础设施重建。

表面上看,AI革命是模型参数、推理能力、多模态应用的升级;但底层看,它真正消耗的是GPU、HBM、交换机、光模块、电源、液冷、土地、电网和资本开支。

一、这轮板块轮动的本质:不是炒扩散,而是“瓶颈迁移”

AI产业链的投资机会有一个非常重要的规律:

哪里成为下一个物理瓶颈,哪里就会出现下一轮估值重估

早期瓶颈是GPU,所以英伟达成为核心资产。英伟达最新财报显示,单季度收入达到681亿美元,其中数据中心收入623亿美元,同比增速达到75%,这说明AI算力需求仍然不是“故事”,而是实打实的订单和收入。

但当GPU开始大规模部署后,新的问题立刻出现:

GPU够了,HBM够不够?HBM够了,服务器能不能交付?服务器到了,网络能不能把几十万张卡连起来?网络通了,机柜功率和散热能不能承受?机房建好了,电网有没有电?电有了,云厂商能不能把这些算力卖出去、赚回来?

所以,AI行情的核心不是“从一个板块炒到另一个板块”,而是瓶颈从芯片端一路迁移到物理基础设施端

这也解释了为什么近期资金会从单纯的GPU、半导体,逐渐流向服务器整机、光通信、液冷、电力设备、独立发电商、云基础设施运营商。

二、AI基础设施的八层进化:从“硅基大脑”到“能源原力

层级
本质
代表方向
投资看点
第一层
硅基大脑
GPU、ASIC、CPU、先进制程
算力定价权
第二层
算力血管
交换机、光模块、AEC、网络芯片
集群互联效率
第三层
物理躯干
AI服务器、机柜、电源、散热
交付能力与订单转化
第四层
数字记忆
HBM、DRAM、NAND、企业级存储、PCB
数据与模型状态存储
第五层
算力基建商
数据中心、算力租赁、云基础设施
容量运营能力
第六层
能量缓冲
储能、UPS、电池、逆变器
电力波动管理
第七层
能源原力
核电、燃气、发电资产、电网设备
可用电力稀缺性
第八层
应用分发
云厂商、AI平台、企业软件
算力变现入口

过去市场最熟悉的是第一层,也就是GPU。但真正决定AI产业能走多远的,并不是单颗芯片,而是这八层能否同时升级。

AI训练和推理不是“买几张卡”就能完成的事。一个大模型任务背后,既有矩阵计算,也有参数加载、KV Cache、向量检索、数据预处理、任务调度、网络通信、冷热数据分层、服务器散热和电力供应。只要其中任何一环跟不上,GPU就会变成昂贵的闲置资产。

这就是为什么AI基础设施正在从“芯片稀缺”进入“系统稀缺”。

第一层:硅基大脑——NVDA、AVGO、AMD、ASML

1. NVDA:仍是核心,但市场已经从“买GPU”进入“买系统”

英伟达的核心地位没有改变,但市场对它的理解正在变化。

以前大家把英伟达看成GPU公司,现在更应该把它看成AI计算工厂的系统供应商。GPU只是表层,真正的壁垒在于GPU、NVLink、InfiniBand/Spectrum-X网络、软件生态、CUDA、机柜级系统和客户迁移成本。

英伟达的优势在于,它不是只卖一颗芯片,而是在卖一套“让AI集群跑起来”的完整系统。这也是为什么它的数据中心收入还能保持极高规模和增速。

但对投资来说,英伟达现在的问题不是公司不强,而是预期太高。未来需要关注三个变量:

第一,云厂商自研ASIC会不会分流部分训练和推理需求;第二,Blackwell、Rubin等新平台切换期是否影响毛利率和交付节奏;第三,资本开支最终能否被AI收入消化。

所以,NVDA仍是AI产业链的“定海神针”,但未必是未来每一轮板块轮动里弹性最大的资产。它更像是整个AI基础设施景气度的温度计。

2. AVGO:真正被低估过的,是“定制ASIC+网络”的组合价值

Broadcom的逻辑和英伟达不同。

英伟达解决的是通用AI算力平台问题,而Broadcom更像是超大云厂商背后的“定制芯片军火商”。它参与的是ASIC、交换芯片、高速互联、网络基础设施这些环节。

这条线的价值在于:当云厂商发现单纯依赖GPU成本太高时,它们会越来越倾向于为特定工作负载设计ASIC。ASIC未必能替代GPU,但在稳定、规模化、重复性的推理任务中,ASIC有成本和能效优势。

Broadcom最新季度AI收入达到84亿美元,同比增长106%,并预计下一季度AI半导体收入继续增长,这说明“定制AI芯片”不是远期故事,而是已经进入收入兑现期。

AVGO的关键看点:

变量
解释
ASIC项目数量
越多云巨头导入定制芯片,增长确定性越强
AI网络芯片
大规模集群离不开高速交换和互联
客户集中度
大客户订单强,但也带来集中风险
估值切换
从传统半导体公司向AI基础设施平台重估

如果说NVDA代表“标准化GPU时代”,AVGO代表的就是“定制化AI算力时代”。

3. AMD:短期是追赶者,长期是“第二供应源+CPU调度中枢”

AMD的AI逻辑不能只看GPU。

市场过去过度关注MI300、MI350、MI400这些GPU产品,却忽略了AMD真正的组合牌:EPYC CPU + Instinct GPU + 网络/系统整合 + 开放生态

在AI服务器里,GPU负责大规模并行计算,但CPU仍然是调度中枢。数据加载、任务分配、系统管理、虚拟化、存储I/O、网络协议栈、云端服务调度,都离不开CPU。随着AI推理从单次问答进入Agent、多工具调用、多模型协同,CPU的控制面价值会重新上升。

AMD最新财报显示,公司全年收入达到346亿美元,并强调EPYC与Ryzen CPU、数据中心AI业务是增长动能。 另外,AMD与OpenAI签署了大规模GPU部署协议,初始部署计划从MI450系列开始,这说明AMD正在从“GPU替代方案”向“AI基础设施第二供应源”推进。

AMD的机会在于:

  • 云厂商不愿长期只依赖一家GPU供应商;
  • 推理成本优化会推动多元芯片架构;
  • EPYC CPU在AI服务器里的附加价值会被重新认识;
  • 如果ROCm生态继续成熟,估值逻辑会从“追赶英伟达”变成“第二平台”。

但风险也很清楚:软件生态、GPU性能、供应链、HBM配套、客户验证周期,都决定它能不能真正吃到大规模份额。

4. ASML:不是AI弹性最大,但它是最底层的“制程闸门”

ASML不是AI概念股意义上的高弹性资产,但它是半导体产业链最难绕开的基础设施。

无论是GPU、AI ASIC,还是先进CPU,只要继续追求更高性能和更低功耗,就绕不开先进制程;而先进制程背后绕不开EUV光刻设备。ASML最新财报显示,2026年一季度净销售额88亿欧元,毛利率53%,并给出全年360亿至400亿欧元的销售指引。

ASML的投资逻辑不是“AI订单爆发”,而是先进制程资本开支的长期门票

它的风险也主要来自三个方向:

第一,半导体资本开支周期波动;第二,地缘限制影响部分地区订单;第三,High-NA EUV导入节奏和客户投资回报周期。

所以ASML更适合作为AI产业链最底层的“确定性资产”观察,而不是短期轮动里最强的弹性品种。

第二层:数字记忆——MU、WDC、STX、PSTG

1. MU:AI不是只要GPU,模型还需要“记忆系统”

如果说GPU是发动机,存储就是AI的记忆系统。

很多人理解存储还停留在“周期股涨价”阶段,这是不够的。AI带来的存储需求不是简单的容量扩张,而是结构性升级:

  • 训练需要HBM承载高带宽计算;
  • 推理需要DRAM和HBM支撑低延迟响应;
  • Agent需要长期记忆和上下文管理;
  • RAG需要向量数据库;
  • 大规模推理需要KV Cache;
  • 模型训练需要频繁保存Checkpoint;
  • 企业AI需要把冷数据、热数据、半热数据重新分层。

Micron在投资者材料中明确提到,AI需求正在推动DRAM和NAND数据中心市场扩张,并指出AI服务器、传统服务器需求受到DRAM和NAND供给约束;公司也提到HBM4将用于下一代AI平台,并强调数据中心NAND需求受到向量数据库和KV Cache卸载推动。

这句话非常关键:AI存储不只是HBM,也包括数据中心SSD和企业级NAND。

MU的看点:

看点
逻辑
HBM
单位价值量高,是AI服务器核心增量
DRAM
CPU与GPU系统都需要更大内存池
NAND/SSD
向量数据库、KV Cache、Checkpoint推动企业级SSD需求
价格周期
供给约束下,涨价会放大利润弹性

风险在于,存储行业仍然有强周期属性。一旦供给快速释放,价格和毛利率会波动。所以MU的估值不能只看“AI叙事”,还要跟踪DRAM/NAND价格、HBM份额、客户认证和资本开支纪律。

2. WDC、STX、PSTG:不是所有存储都同一种弹性

WDC和STX更偏容量存储,PSTG更偏企业级闪存和数据平台。它们和MU的差别在于:

  • MU更接近AI服务器核心增量,尤其是HBM和高端DRAM;
  • WDC/STX更受益于数据量爆炸和云端冷/温数据扩容;
  • PSTG更看企业AI落地后,对高性能存储平台的需求。

AI不会只产生“热数据”,它还会产生大量训练数据、日志数据、用户交互数据、合成数据、向量索引和企业知识库。未来企业部署AI,不是只买GPU,还要重构数据底座。

所以存储板块的真正逻辑是:

AI让数据从“被动保存”变成“实时参与推理”。

这会让高性能存储的重要性持续上升。

第三层:算力血管——ANET、CRDO、CIEN、LITE、AAOI

AI集群越大,网络越重要。

单机GPU性能再强,如果GPU之间不能高速通信,训练效率就会大幅下降。尤其是万卡、十万卡集群里,网络延迟、丢包、拥塞控制、拓扑设计、负载均衡,都会直接影响训练完成时间。

这就是为什么市场开始重估“算力血管”。

1. ANET:以太网AI集群的核心受益者之一

Arista的价值不在于它“也沾AI”,而在于它卡在了AI集群从单机走向大规模互联的关键位置。

英伟达有InfiniBand和Spectrum-X,但超大云厂商并不希望所有集群都被单一生态绑定。以太网的开放性、成本结构、供应链弹性,使它在AI数据中心里越来越重要。

Arista 2025年全年收入达到90亿美元,同比增长28.6%,并强调AI、数据中心和园区网络推动增长。公司还在AI网络方面强调降低任务完成时间、提升功耗效率和作业可观测性。

ANET的核心看点:

  • 云巨头AI数据中心扩建;
  • 以太网在AI集群中的渗透率;
  • 800G/1.6T交换升级;
  • 软件定义网络和可观测性能力;
  • 与英伟达网络生态之间的竞争与共存。

风险在于客户集中度和估值。ANET是好公司,但市场已经高度认可它的AI网络地位,后续股价弹性取决于订单兑现是否继续超预期。

2. CRDO:高速互联里的高弹性小巨人

Credo的逻辑更细分,主要在高速连接、AEC、有源电缆、SerDes等方向。

AI服务器内部和机柜之间需要大量高速连接。随着800G、1.6T升级,传统铜缆、光模块、有源电缆之间会发生技术路线竞争。Credo的机会就在于数据中心高速互联需求爆发。

Credo最新季度收入达到4.07亿美元,同比增长201.5%,环比增长51.9%,说明它正处在AI互联需求放量阶段。

CRDO的弹性很强,但风险也高:

  • 客户集中度高;
  • 技术路线变化快;
  • AEC、光模块、CPO之间存在替代关系;
  • 高增长公司估值容易对订单节奏敏感。

这类公司更适合作为“AI网络升级弹性标的”观察,而不是简单按照传统半导体估值。

3. CIEN、LITE、AAOI:光通信不是一条线,要分层看

光通信板块容易被市场一锅端,但实际上要拆成三层:

层级
代表
逻辑
数据中心内部互联
光模块、AEC、CPO
直接受益AI集群升级
数据中心之间互联
DCI、光传输设备
受益云区域扩张和东西向流量
传统电信网络
运营商资本开支
周期性更强,AI弹性较弱

Ciena最新财报显示,季度收入同比增长33%,公司还上调了全年收入指引,并将需求增长与AI投资和高速连接需求联系起来。

LITE、AAOI这类标的弹性更高,但也更依赖产品周期、客户认证、价格竞争和产能节奏。投资这条线不能只看“光模块涨了”,而要看它到底处于AI数据中心内部、数据中心之间,还是传统电信网络。

第四层:物理躯干——DELL、SMCI、VRT

AI服务器不是传统服务器。

传统服务器主要看CPU、内存、硬盘;AI服务器则是GPU、HBM、NVLink、PCIe、CXL、电源、散热、机柜、网络、BMC管理系统的复杂组合。

这意味着服务器整机厂商的价值不只是“组装”,而是供应链协调、液冷设计、机柜级交付、客户验证、售后运维。

在AI服务器这条链里,还有一个环节经常被忽略:PCB。

很多人一提AI硬件,只想到GPU、HBM、服务器、光模块、液冷,却很少想到PCB。但如果把AI服务器拆开看,PCB其实是所有高价值零部件的承载底座。

GPU、CPU、内存、电源模块、网络芯片、高速接口,都要通过PCB完成连接。芯片再强,如果没有高规格PCB把电源、信号和热设计组织起来,它就只是单颗芯片,变不成一台可以稳定运行的AI服务器。

传统服务器时代,PCB更多是制造环节里的配套部件。但AI服务器时代,PCB的价值被重新放大了。

原因很简单:AI服务器同时把三件事推到了极限。

第一,是功率密度AI加速卡功耗越来越高,整机和机柜功率也在快速上升。PCB不只是负责“连线”,还要承担更复杂的电源分配任务。电流更大、损耗更低、稳定性要求更高,对板材、层数、铜厚、设计能力都提出了更高要求。

第二,是高速信号传输AI训练最怕的不是单张GPU慢,而是多张GPU之间通信效率低。PCIe、NVLink、高速SerDes、800G/1.6T互联,对PCB的低损耗、高频高速能力提出了极高要求。信号跑得越快,对材料、走线、阻抗控制、串扰管理的要求就越严。

第三,是系统复杂度AI服务器不再是普通服务器加几张卡,而是GPU、CPU、HBM、网络、电源、散热、管理芯片共同组成的复杂系统。系统越复杂,PCB层数越高,设计难度越大,单机价值量也越高。

所以,PCB在这轮AI行情里的定位很特殊:

它主属于“第三层物理躯干”,但同时又带有“第二层算力血管”的属性。

它既是AI服务器的骨架,也是高速信号和电力分配的通道。

从投资角度看,PCB的机会不在于“普通板子涨价”,而在于AI服务器推动PCB产品升级:高层数、高频高速、高可靠性、低损耗材料、HDI、服务器主板、加速卡板、背板等高端产品占比提升。

这会带来三个变化:

第一,单机价值量提升AI服务器里PCB的用量、层数、材料等级都明显高于传统服务器。

第二,行业门槛提高不是所有PCB厂都能做AI服务器高端板。高频高速、高层数、良率控制、客户认证,都会筛掉一批低端产能。

第三,它可能成为新的系统瓶颈当GPU、HBM、服务器订单同时放量时,高端PCB产能和良率如果跟不上,就会影响整机交付节奏。

所以,PCB不应该只被看作“服务器产业链小配件”。在AI基础设施重建里,它更像是隐藏在服务器内部的“物理底座”。

市场第一眼看到的是GPU,第二眼看到的是服务器和液冷,但真正拆到系统内部,PCB这种环节才会显露价值。

它不是最性感的AI资产,却可能是这轮硬件外溢中最容易被低估的环节之一。

1. DELL:从PC公司重新变成AI基础设施公司

Dell这轮最值得重视的地方,不是“也卖AI服务器”,而是它已经拿到了大规模AI订单。

公司披露,AI优化服务器累计订单超过640亿美元,已交付超过250亿美元,积压订单达到430亿美元。其基础设施解决方案集团全年收入608亿美元,同比增长40%;单季度AI优化服务器收入同比增长342%。

这组数据说明,AI服务器已经不是概念,而是Dell财报中的核心增长引擎。

DELL的看点:

  • AI服务器订单能否持续转化为收入;
  • 毛利率能否在大规模交付中保持稳定;
  • 存储、网络、服务能否形成交叉销售;
  • 客户是否从单次采购转向长期基础设施合作。

但需要注意,服务器整机业务天然利润率不如芯片公司。DELL的估值逻辑不是“高毛利半导体”,而是“AI基础设施交付平台”。它的关键不是收入高,而是订单、毛利、现金流能不能一起改善。

2. SMCI:高弹性,但要承受更高波动

Super Micro的特点是速度快、客户响应快、产品切入AI服务器早,因此在AI服务器第一轮行情里弹性很强。

但SMCI这类公司的问题也很典型:

  • 供应链波动会直接影响交付;
  • 毛利率受零部件价格和客户议价影响;
  • 客户集中度较高;
  • 财务透明度和治理问题会放大估值波动;
  • 行业竞争者包括Dell、HPE、Lenovo、ODM厂商。

所以SMCI适合作为AI服务器高弹性标的,但它不是低波动核心资产。看它不能只看收入增速,更要看毛利率、现金转换、库存、审计进展和大客户稳定性。

3. VRT:AI数据中心真正的“物理底座”

如果说GPU是AI的大脑,那么Vertiv做的是AI数据中心的生命维持系统:电源、UPS、热管理、机柜、液冷、配电。

AI服务器的功率密度远高于传统服务器。过去一个机柜几千瓦、十几千瓦就够了,但AI机柜功率密度快速上升后,风冷已经越来越吃力,液冷、配电、备用电源都变成刚需。

Vertiv最新季度订单同比增长252%,积压订单达到150亿美元,同比增长109%;公司明确提到AI基础设施需求强劲。

VRT这类公司的核心价值是:它不是替代GPU,而是让GPU能稳定运行

它的风险在于,市场已经把AI数据中心需求预期打得很满。一旦订单转化、产能交付或利润率不及预期,估值会剧烈波动。但从产业位置看,电源和散热已经从过去的“配套设备”,升级成AI数据中心的核心瓶颈。

第五层与第六层:算力基建商与能量缓冲——APLD、NBIS、FLNC、EOSE、ENPH

随着云巨头资本开支持续扩张,一批中小型算力基础设施公司和储能公司开始进入市场视野。

这一层要特别小心,因为它们的弹性很大,但商业模式差异也很大。

1. 算力基建商:看“电力+土地+客户+融资”

APLD、NBIS这类公司,本质不是传统软件公司,而是AI算力容量运营商或数据中心基础设施参与者。

这类公司的关键不是PPT里有多少GPU,而是四个问题:

第一,电力能不能接入?第二,数据中心能不能按时交付?第三,客户合同是不是高质量?第四,融资成本会不会吞掉利润?

AI数据中心是资本密集型生意。订单看起来很大,但如果项目建设慢、融资成本高、客户违约或租赁价格下降,利润并不一定好看。

所以这一层可以有高弹性,但不能按软件股估值去看。它更接近“带AI属性的基础设施REIT/运营商”。

2. 储能与电力缓冲:AI不是只要电,还要稳定的电

FLNC、EOSE、ENPH这类公司对应的是AI电力系统里的“缓冲层”。

数据中心对电力的要求不是“平均有电”就够,而是要连续、稳定、高可靠。AI训练任务不能频繁中断,推理服务更不能大面积掉线。

储能、UPS、逆变器、微电网的价值就在于:

  • 平滑电力波动;
  • 提供备用电源;
  • 降低峰值负荷;
  • 配合可再生能源;
  • 缩短部分项目接电等待时间。

但这条线也有风险:储能和逆变器不是所有AI数据中心的万能解药。大型AI园区最终仍然需要稳定基荷电源和电网扩容。储能解决的是波动问题,不是长期电力总量问题。

第七层:能源原力——VST、CEG、TLN、GEV、BE、OKLO

AI行情最有意思的变化,是资金开始买电力股。

这不是简单炒作,而是因为AI已经把“电”从成本项变成战略资源。

IEA预计,到2030年全球数据中心电力需求将增长至约945太瓦时,较当前水平大幅提升,其中AI是主要驱动因素之一;在美国,数据中心预计将贡献未来电力需求增长的重要部分。 美国能源信息署也预计,美国电力需求将出现多年强劲增长,数据中心是主要驱动因素之一。

更直观的是,伯克利实验室的报告指出,美国数据中心用电量已从2014年的58太瓦时增至2023年的176太瓦时,并可能在2028年达到325至580太瓦时。

这意味着未来AI竞争不只是芯片竞争,也是电力竞争。

1. VST、CEG、TLN:发电资产的稀缺性被重新定价

Vistra、Constellation Energy、Talen Energy这类公司,本质是拥有发电资产的电力公司。它们的AI逻辑不是“做AI”,而是数据中心需要大量稳定电力,而可调度电源越来越稀缺。

其中,核电、燃气、电力市场化地区的发电资产会被重新重视。原因很简单:数据中心不是普通居民用电,它需要大规模、长期、稳定、可预测的电力供应。

这一层的看点是:

  • 数据中心PPA长期电力协议;
  • 电价中枢是否上移;
  • 核电资产重估;
  • 区域电网容量限制;
  • 发电资产与云厂商绑定程度。

风险则包括监管、电价政策、燃料价格、设备检修、极端天气和政治因素。

这类公司不应该被当成“科技股”看,而应该被看成AI时代的能源基础资产。

2. GEV:电网和电力设备的“铲子股”

GE Vernova的逻辑更偏设备端。

AI数据中心要接入电网,需要变压器、开关设备、电网升级、燃气轮机、电力系统控制。真正的瓶颈不只是“有没有发电厂”,还包括“电能不能送到机房”。

所以GEV的价值在于:它受益的不只是AI数据中心,也包括全球电网升级、电气化、能源安全和新能源并网。

这类公司弹性可能不如高beta AI股,但它代表的是更长期、更底层的基础设施支出。

3. BE、OKLO:高弹性能源方案,但风险更偏早期

Bloom Energy的逻辑在于现场发电和燃料电池。如果电网接入速度太慢,数据中心可能会考虑更多分布式能源和现场供电方案。

Oklo则更偏小型核能与先进核能的长期想象空间。它的叙事很强,因为AI数据中心需要稳定、低碳、长周期电力;但这类公司更依赖监管审批、技术验证、商业化进度和融资能力。

因此,BE和OKLO都不是传统意义上的稳健电力股,而是AI能源约束下的高弹性期权。

第八层:应用分发——MSFT、GOOGL、AMZN、ORCL

AI基础设施最后一定要回到一个问题:

这么多资本开支,最终谁来买单?

答案在云厂商和应用分发层。

微软、谷歌、亚马逊、甲骨文既是AI基础设施最大的买方,也是未来AI服务收入的主要变现入口。

1. MSFT:最强的企业AI分发入口

微软的核心优势不是单纯云计算,而是企业软件分发能力。

Office、Teams、Windows、Azure、GitHub、Dynamics,这些入口让微软有机会把AI变成企业日常工作流的一部分。微软最新财报显示,Microsoft Cloud季度收入达到515亿美元,同比增长26%;Azure和其他云服务收入同比增长39%。

MSFT的AI逻辑是:

  • Azure承接AI训练和推理需求;
  • Copilot把AI嵌入企业软件;
  • GitHub把AI嵌入开发者工作流;
  • OpenAI生态带来模型层影响力;
  • 企业客户迁移成本高。

风险在于,AI资本开支巨大,市场最终会要求微软证明Copilot和Azure AI能带来足够高的回报。

2. GOOGL:AI基础设施与模型能力都强,但需要证明云商业化

谷歌的优势是全栈能力:TPU、自研模型、搜索入口、YouTube、Android、Google Cloud。

Alphabet最新财报显示,Google Cloud季度收入177亿美元,同比增长48%;公司同时给出2026年1750亿至1850亿美元资本开支指引,AI基础设施投入强度非常高。

GOOGL的核心问题不是技术不行,而是市场要看:

  • Gemini能否真正转化为搜索和企业收入;
  • Google Cloud能否持续缩小与AWS、Azure差距;
  • 高资本开支是否会压制自由现金流;
  • AI搜索是否影响传统广告模式。

如果谷歌能证明AI不只是成本中心,而是广告、云和企业服务的新增长点,它的重估空间仍然存在。

3. AMZN:AWS仍是云基础设施核心,同时自研芯片降低成本

亚马逊的AI逻辑主要在AWS。

AWS最新季度收入356亿美元,同比增长24%;亚马逊同时披露,Trainium和Graviton相关业务达到超过100亿美元年化收入规模,并提到Trainium2、Trainium3等自研芯片进展。

AMZN的优势在于:

  • AWS客户基础庞大;
  • 云基础设施经验深;
  • Trainium、Inferentia、Graviton有助于降低推理成本;
  • 电商、广告、物流体系也能内部消化AI能力。

风险在于,AI资本开支会压低短期自由现金流,而市场会持续追问:AWS的AI收入增速能否覆盖基础设施投入?

4. ORCL:AI云黑马,关键看RPO兑现

Oracle这轮被市场重新认识,核心原因是AI云合同和RPO爆发。

公司最新财报显示,剩余履约义务达到5530亿美元,同比增长325%;云基础设施收入同比增长84%。公司还表示,RPO增长主要与大规模AI合同有关。

ORCL的看点是:

  • AI训练集群订单能否按期交付;
  • 大客户合同能否转化为收入和现金流;
  • 资本开支压力是否可控;
  • 与OpenAI、xAI、Meta等AI客户的合作深度。

ORCL的风险在于,它的AI云增长很大程度依赖大额合同和基础设施建设速度。一旦交付节奏慢,估值波动会比较大。

三、下一阶段真正值得盯的,不是“谁有AI概念”,而是五个指标

AI产业链已经从讲故事进入验订单阶段。接下来选股不能只看公司名字里有没有AI,而要看五个硬指标。

1. 订单能见度

最重要的是订单,而不是口号。

关注:

  • backlog积压订单;
  • RPO(Remaining Performance Obligations);
  • book-to-bill(订单出货比);
  • 大客户合同;
  • 交付周期;
  • 预付款和取消条款。

DELL、VRT、ORCL这类公司之所以被市场重估,核心就是订单和积压合同变得可见。

2. 是否卡在真实瓶颈上

AI产业链里有两类公司:

一种是“沾AI”;另一种是“没有它AI跑不起来”。

真正有重估价值的是第二类。

GPU、HBM、交换机、液冷、电源、发电资产,都是物理瓶颈。它们不是可有可无的配套,而是AI基础设施的约束条件。

3. 毛利率和现金流能否同步改善

AI订单很大,但不是所有订单都赚钱。

服务器整机、数据中心建设、算力租赁这类业务,收入可能增长很快,但资本开支、库存、融资成本也很高。

所以要特别警惕:

  • 收入高增但毛利率下降;
  • 订单多但现金流差;
  • 项目大但融资压力大;
  • 客户集中但议价能力弱。

4. 技术路线是否站对

AI基础设施里有很多路线之争:

  • GPU vs ASIC;
  • InfiniBand vs Ethernet;
  • 铜缆/AEC vs 光模块 vs CPO;
  • 风冷 vs 液冷;
  • 集中式电网 vs 现场发电;
  • 公有云 vs 私有化部署。

每一次技术路线变化,都会改变产业链利润分配。

5. 估值是否已经透支

好公司不等于好价格。

AI基础设施是长期大趋势,但阶段性估值波动会非常大。尤其是高增长、高预期、高beta标的,只要订单略低于预期,股价就可能剧烈调整。

所以这轮行情不能用“AI长期好”四个字简单解释。真正要判断的是:

未来两到四个季度,公司的订单、收入、毛利率、现金流,能不能继续超出市场预期。

四、这轮AI行情的真正主线:从“算力芯片”到“工业底座”

如果把这轮AI行情分成三个阶段,大致可以这样理解:

第一阶段:算力稀缺

核心资产是NVDA、AMD、AVGO、ASML、HBM产业链。

市场买的是“谁能提供算力”。

第二阶段:系统稀缺

核心资产扩散到ANET、CRDO、CIEN、DELL、SMCI、VRT、MU。

市场买的是“谁能让算力集群跑起来”。

第三阶段:能源稀缺

核心资产扩散到VST、CEG、TLN、GEV、BE、OKLO,以及储能、电网、备用电源相关公司。

市场买的是“谁能让数据中心长期、稳定、低成本运行”。

AI的终局不是模型竞赛,而是基础设施竞赛

过去大家问的是:

谁的模型更强?谁的GPU更多?谁的参数更大?

未来真正重要的问题会变成:

谁能拿到足够多的电?谁能最快建成数据中心?谁能把十万卡集群稳定跑起来?谁能让推理成本持续下降?谁能把AI能力分发到最多企业和用户?

AI革命表面上是算法突破,底层其实是一场超大规模工业基础设施重建。

英伟达打开了第一扇门,但后面的机会正在沿着服务器、存储、网络、散热、电力、云平台继续扩散。

未来三到五年,AI产业链最值得重视的,不是喊AI口号最响的公司,而是那些真正卡住瓶颈、拥有订单、具备交付能力、能够把资本开支转化为现金流的公司。

这才是AI行情后半场的核心:

从“谁有芯片”,到“谁能建厂”;从“谁有算力”,到“谁有电力”;从“谁讲故事”,到“谁能交付”。

发表评论
0评