第一轮,大家盯着GPU;第二轮,资金开始找HBM、存储、服务器;到了现在,行情已经不再是单点爆发,而是在沿着一条非常清晰的工业链条外溢:
芯片 → 存储 → 服务器 → 网络 → 散热 → 电力 → 云平台 → 应用分发。
这不是简单的“AI概念扩散”,而是一场从“硅片”到“原子”的基础设施重建。
表面上看,AI革命是模型参数、推理能力、多模态应用的升级;但底层看,它真正消耗的是GPU、HBM、交换机、光模块、电源、液冷、土地、电网和资本开支。

一、这轮板块轮动的本质:不是炒扩散,而是“瓶颈迁移”
AI产业链的投资机会有一个非常重要的规律:
哪里成为下一个物理瓶颈,哪里就会出现下一轮估值重估。
早期瓶颈是GPU,所以英伟达成为核心资产。英伟达最新财报显示,单季度收入达到681亿美元,其中数据中心收入623亿美元,同比增速达到75%,这说明AI算力需求仍然不是“故事”,而是实打实的订单和收入。
但当GPU开始大规模部署后,新的问题立刻出现:
GPU够了,HBM够不够?HBM够了,服务器能不能交付?服务器到了,网络能不能把几十万张卡连起来?网络通了,机柜功率和散热能不能承受?机房建好了,电网有没有电?电有了,云厂商能不能把这些算力卖出去、赚回来?
所以,AI行情的核心不是“从一个板块炒到另一个板块”,而是瓶颈从芯片端一路迁移到物理基础设施端。
这也解释了为什么近期资金会从单纯的GPU、半导体,逐渐流向服务器整机、光通信、液冷、电力设备、独立发电商、云基础设施运营商。
二、AI基础设施的八层进化:从“硅基大脑”到“能源原力”
过去市场最熟悉的是第一层,也就是GPU。但真正决定AI产业能走多远的,并不是单颗芯片,而是这八层能否同时升级。
AI训练和推理不是“买几张卡”就能完成的事。一个大模型任务背后,既有矩阵计算,也有参数加载、KV Cache、向量检索、数据预处理、任务调度、网络通信、冷热数据分层、服务器散热和电力供应。只要其中任何一环跟不上,GPU就会变成昂贵的闲置资产。
这就是为什么AI基础设施正在从“芯片稀缺”进入“系统稀缺”。
第一层:硅基大脑——NVDA、AVGO、AMD、ASML
1. NVDA:仍是核心,但市场已经从“买GPU”进入“买系统”
英伟达的核心地位没有改变,但市场对它的理解正在变化。
以前大家把英伟达看成GPU公司,现在更应该把它看成AI计算工厂的系统供应商。GPU只是表层,真正的壁垒在于GPU、NVLink、InfiniBand/Spectrum-X网络、软件生态、CUDA、机柜级系统和客户迁移成本。
英伟达的优势在于,它不是只卖一颗芯片,而是在卖一套“让AI集群跑起来”的完整系统。这也是为什么它的数据中心收入还能保持极高规模和增速。
但对投资来说,英伟达现在的问题不是公司不强,而是预期太高。未来需要关注三个变量:
第一,云厂商自研ASIC会不会分流部分训练和推理需求;第二,Blackwell、Rubin等新平台切换期是否影响毛利率和交付节奏;第三,资本开支最终能否被AI收入消化。
所以,NVDA仍是AI产业链的“定海神针”,但未必是未来每一轮板块轮动里弹性最大的资产。它更像是整个AI基础设施景气度的温度计。
2. AVGO:真正被低估过的,是“定制ASIC+网络”的组合价值
Broadcom的逻辑和英伟达不同。
英伟达解决的是通用AI算力平台问题,而Broadcom更像是超大云厂商背后的“定制芯片军火商”。它参与的是ASIC、交换芯片、高速互联、网络基础设施这些环节。
这条线的价值在于:当云厂商发现单纯依赖GPU成本太高时,它们会越来越倾向于为特定工作负载设计ASIC。ASIC未必能替代GPU,但在稳定、规模化、重复性的推理任务中,ASIC有成本和能效优势。
Broadcom最新季度AI收入达到84亿美元,同比增长106%,并预计下一季度AI半导体收入继续增长,这说明“定制AI芯片”不是远期故事,而是已经进入收入兑现期。
AVGO的关键看点:
如果说NVDA代表“标准化GPU时代”,AVGO代表的就是“定制化AI算力时代”。
3. AMD:短期是追赶者,长期是“第二供应源+CPU调度中枢”
AMD的AI逻辑不能只看GPU。
市场过去过度关注MI300、MI350、MI400这些GPU产品,却忽略了AMD真正的组合牌:EPYC CPU + Instinct GPU + 网络/系统整合 + 开放生态。
在AI服务器里,GPU负责大规模并行计算,但CPU仍然是调度中枢。数据加载、任务分配、系统管理、虚拟化、存储I/O、网络协议栈、云端服务调度,都离不开CPU。随着AI推理从单次问答进入Agent、多工具调用、多模型协同,CPU的控制面价值会重新上升。
AMD最新财报显示,公司全年收入达到346亿美元,并强调EPYC与Ryzen CPU、数据中心AI业务是增长动能。 另外,AMD与OpenAI签署了大规模GPU部署协议,初始部署计划从MI450系列开始,这说明AMD正在从“GPU替代方案”向“AI基础设施第二供应源”推进。
AMD的机会在于:
云厂商不愿长期只依赖一家GPU供应商; 推理成本优化会推动多元芯片架构; EPYC CPU在AI服务器里的附加价值会被重新认识; 如果ROCm生态继续成熟,估值逻辑会从“追赶英伟达”变成“第二平台”。
但风险也很清楚:软件生态、GPU性能、供应链、HBM配套、客户验证周期,都决定它能不能真正吃到大规模份额。
4. ASML:不是AI弹性最大,但它是最底层的“制程闸门”
ASML不是AI概念股意义上的高弹性资产,但它是半导体产业链最难绕开的基础设施。
无论是GPU、AI ASIC,还是先进CPU,只要继续追求更高性能和更低功耗,就绕不开先进制程;而先进制程背后绕不开EUV光刻设备。ASML最新财报显示,2026年一季度净销售额88亿欧元,毛利率53%,并给出全年360亿至400亿欧元的销售指引。
ASML的投资逻辑不是“AI订单爆发”,而是先进制程资本开支的长期门票。
它的风险也主要来自三个方向:
第一,半导体资本开支周期波动;第二,地缘限制影响部分地区订单;第三,High-NA EUV导入节奏和客户投资回报周期。
所以ASML更适合作为AI产业链最底层的“确定性资产”观察,而不是短期轮动里最强的弹性品种。
第二层:数字记忆——MU、WDC、STX、PSTG
1. MU:AI不是只要GPU,模型还需要“记忆系统”
如果说GPU是发动机,存储就是AI的记忆系统。
很多人理解存储还停留在“周期股涨价”阶段,这是不够的。AI带来的存储需求不是简单的容量扩张,而是结构性升级:
训练需要HBM承载高带宽计算; 推理需要DRAM和HBM支撑低延迟响应; Agent需要长期记忆和上下文管理; RAG需要向量数据库; 大规模推理需要KV Cache; 模型训练需要频繁保存Checkpoint; 企业AI需要把冷数据、热数据、半热数据重新分层。
Micron在投资者材料中明确提到,AI需求正在推动DRAM和NAND数据中心市场扩张,并指出AI服务器、传统服务器需求受到DRAM和NAND供给约束;公司也提到HBM4将用于下一代AI平台,并强调数据中心NAND需求受到向量数据库和KV Cache卸载推动。
这句话非常关键:AI存储不只是HBM,也包括数据中心SSD和企业级NAND。
MU的看点:
风险在于,存储行业仍然有强周期属性。一旦供给快速释放,价格和毛利率会波动。所以MU的估值不能只看“AI叙事”,还要跟踪DRAM/NAND价格、HBM份额、客户认证和资本开支纪律。
2. WDC、STX、PSTG:不是所有存储都同一种弹性
WDC和STX更偏容量存储,PSTG更偏企业级闪存和数据平台。它们和MU的差别在于:
- MU更接近AI服务器核心增量,尤其是HBM和高端DRAM;
- WDC/STX更受益于数据量爆炸和云端冷/温数据扩容;
- PSTG更看企业AI落地后,对高性能存储平台的需求。
AI不会只产生“热数据”,它还会产生大量训练数据、日志数据、用户交互数据、合成数据、向量索引和企业知识库。未来企业部署AI,不是只买GPU,还要重构数据底座。
所以存储板块的真正逻辑是:
AI让数据从“被动保存”变成“实时参与推理”。
这会让高性能存储的重要性持续上升。
第三层:算力血管——ANET、CRDO、CIEN、LITE、AAOI
AI集群越大,网络越重要。
单机GPU性能再强,如果GPU之间不能高速通信,训练效率就会大幅下降。尤其是万卡、十万卡集群里,网络延迟、丢包、拥塞控制、拓扑设计、负载均衡,都会直接影响训练完成时间。
这就是为什么市场开始重估“算力血管”。
1. ANET:以太网AI集群的核心受益者之一
Arista的价值不在于它“也沾AI”,而在于它卡在了AI集群从单机走向大规模互联的关键位置。
英伟达有InfiniBand和Spectrum-X,但超大云厂商并不希望所有集群都被单一生态绑定。以太网的开放性、成本结构、供应链弹性,使它在AI数据中心里越来越重要。
Arista 2025年全年收入达到90亿美元,同比增长28.6%,并强调AI、数据中心和园区网络推动增长。公司还在AI网络方面强调降低任务完成时间、提升功耗效率和作业可观测性。
ANET的核心看点:
云巨头AI数据中心扩建; 以太网在AI集群中的渗透率; 800G/1.6T交换升级; 软件定义网络和可观测性能力; 与英伟达网络生态之间的竞争与共存。
风险在于客户集中度和估值。ANET是好公司,但市场已经高度认可它的AI网络地位,后续股价弹性取决于订单兑现是否继续超预期。
2. CRDO:高速互联里的高弹性小巨人
Credo的逻辑更细分,主要在高速连接、AEC、有源电缆、SerDes等方向。
AI服务器内部和机柜之间需要大量高速连接。随着800G、1.6T升级,传统铜缆、光模块、有源电缆之间会发生技术路线竞争。Credo的机会就在于数据中心高速互联需求爆发。
Credo最新季度收入达到4.07亿美元,同比增长201.5%,环比增长51.9%,说明它正处在AI互联需求放量阶段。
CRDO的弹性很强,但风险也高:
客户集中度高; 技术路线变化快; AEC、光模块、CPO之间存在替代关系; 高增长公司估值容易对订单节奏敏感。
这类公司更适合作为“AI网络升级弹性标的”观察,而不是简单按照传统半导体估值。
3. CIEN、LITE、AAOI:光通信不是一条线,要分层看
光通信板块容易被市场一锅端,但实际上要拆成三层:
Ciena最新财报显示,季度收入同比增长33%,公司还上调了全年收入指引,并将需求增长与AI投资和高速连接需求联系起来。
LITE、AAOI这类标的弹性更高,但也更依赖产品周期、客户认证、价格竞争和产能节奏。投资这条线不能只看“光模块涨了”,而要看它到底处于AI数据中心内部、数据中心之间,还是传统电信网络。
第四层:物理躯干——DELL、SMCI、VRT
AI服务器不是传统服务器。
传统服务器主要看CPU、内存、硬盘;AI服务器则是GPU、HBM、NVLink、PCIe、CXL、电源、散热、机柜、网络、BMC管理系统的复杂组合。
这意味着服务器整机厂商的价值不只是“组装”,而是供应链协调、液冷设计、机柜级交付、客户验证、售后运维。
在AI服务器这条链里,还有一个环节经常被忽略:PCB。
很多人一提AI硬件,只想到GPU、HBM、服务器、光模块、液冷,却很少想到PCB。但如果把AI服务器拆开看,PCB其实是所有高价值零部件的承载底座。
GPU、CPU、内存、电源模块、网络芯片、高速接口,都要通过PCB完成连接。芯片再强,如果没有高规格PCB把电源、信号和热设计组织起来,它就只是单颗芯片,变不成一台可以稳定运行的AI服务器。
传统服务器时代,PCB更多是制造环节里的配套部件。但AI服务器时代,PCB的价值被重新放大了。
原因很简单:AI服务器同时把三件事推到了极限。
第一,是功率密度。AI加速卡功耗越来越高,整机和机柜功率也在快速上升。PCB不只是负责“连线”,还要承担更复杂的电源分配任务。电流更大、损耗更低、稳定性要求更高,对板材、层数、铜厚、设计能力都提出了更高要求。
第二,是高速信号传输。AI训练最怕的不是单张GPU慢,而是多张GPU之间通信效率低。PCIe、NVLink、高速SerDes、800G/1.6T互联,对PCB的低损耗、高频高速能力提出了极高要求。信号跑得越快,对材料、走线、阻抗控制、串扰管理的要求就越严。
第三,是系统复杂度。AI服务器不再是普通服务器加几张卡,而是GPU、CPU、HBM、网络、电源、散热、管理芯片共同组成的复杂系统。系统越复杂,PCB层数越高,设计难度越大,单机价值量也越高。
所以,PCB在这轮AI行情里的定位很特殊:
它主属于“第三层物理躯干”,但同时又带有“第二层算力血管”的属性。
它既是AI服务器的骨架,也是高速信号和电力分配的通道。
从投资角度看,PCB的机会不在于“普通板子涨价”,而在于AI服务器推动PCB产品升级:高层数、高频高速、高可靠性、低损耗材料、HDI、服务器主板、加速卡板、背板等高端产品占比提升。
这会带来三个变化:
第一,单机价值量提升。AI服务器里PCB的用量、层数、材料等级都明显高于传统服务器。
第二,行业门槛提高。不是所有PCB厂都能做AI服务器高端板。高频高速、高层数、良率控制、客户认证,都会筛掉一批低端产能。
第三,它可能成为新的系统瓶颈。当GPU、HBM、服务器订单同时放量时,高端PCB产能和良率如果跟不上,就会影响整机交付节奏。
所以,PCB不应该只被看作“服务器产业链小配件”。在AI基础设施重建里,它更像是隐藏在服务器内部的“物理底座”。
市场第一眼看到的是GPU,第二眼看到的是服务器和液冷,但真正拆到系统内部,PCB这种环节才会显露价值。
它不是最性感的AI资产,却可能是这轮硬件外溢中最容易被低估的环节之一。
1. DELL:从PC公司重新变成AI基础设施公司
Dell这轮最值得重视的地方,不是“也卖AI服务器”,而是它已经拿到了大规模AI订单。
公司披露,AI优化服务器累计订单超过640亿美元,已交付超过250亿美元,积压订单达到430亿美元。其基础设施解决方案集团全年收入608亿美元,同比增长40%;单季度AI优化服务器收入同比增长342%。
这组数据说明,AI服务器已经不是概念,而是Dell财报中的核心增长引擎。
DELL的看点:
AI服务器订单能否持续转化为收入; 毛利率能否在大规模交付中保持稳定; 存储、网络、服务能否形成交叉销售; 客户是否从单次采购转向长期基础设施合作。
但需要注意,服务器整机业务天然利润率不如芯片公司。DELL的估值逻辑不是“高毛利半导体”,而是“AI基础设施交付平台”。它的关键不是收入高,而是订单、毛利、现金流能不能一起改善。
2. SMCI:高弹性,但要承受更高波动
Super Micro的特点是速度快、客户响应快、产品切入AI服务器早,因此在AI服务器第一轮行情里弹性很强。
但SMCI这类公司的问题也很典型:
供应链波动会直接影响交付; 毛利率受零部件价格和客户议价影响; 客户集中度较高; 财务透明度和治理问题会放大估值波动; 行业竞争者包括Dell、HPE、Lenovo、ODM厂商。
所以SMCI适合作为AI服务器高弹性标的,但它不是低波动核心资产。看它不能只看收入增速,更要看毛利率、现金转换、库存、审计进展和大客户稳定性。
3. VRT:AI数据中心真正的“物理底座”
如果说GPU是AI的大脑,那么Vertiv做的是AI数据中心的生命维持系统:电源、UPS、热管理、机柜、液冷、配电。
AI服务器的功率密度远高于传统服务器。过去一个机柜几千瓦、十几千瓦就够了,但AI机柜功率密度快速上升后,风冷已经越来越吃力,液冷、配电、备用电源都变成刚需。
Vertiv最新季度订单同比增长252%,积压订单达到150亿美元,同比增长109%;公司明确提到AI基础设施需求强劲。
VRT这类公司的核心价值是:它不是替代GPU,而是让GPU能稳定运行。
它的风险在于,市场已经把AI数据中心需求预期打得很满。一旦订单转化、产能交付或利润率不及预期,估值会剧烈波动。但从产业位置看,电源和散热已经从过去的“配套设备”,升级成AI数据中心的核心瓶颈。
第五层与第六层:算力基建商与能量缓冲——APLD、NBIS、FLNC、EOSE、ENPH
随着云巨头资本开支持续扩张,一批中小型算力基础设施公司和储能公司开始进入市场视野。
这一层要特别小心,因为它们的弹性很大,但商业模式差异也很大。
1. 算力基建商:看“电力+土地+客户+融资”
APLD、NBIS这类公司,本质不是传统软件公司,而是AI算力容量运营商或数据中心基础设施参与者。
这类公司的关键不是PPT里有多少GPU,而是四个问题:
第一,电力能不能接入?第二,数据中心能不能按时交付?第三,客户合同是不是高质量?第四,融资成本会不会吞掉利润?
AI数据中心是资本密集型生意。订单看起来很大,但如果项目建设慢、融资成本高、客户违约或租赁价格下降,利润并不一定好看。
所以这一层可以有高弹性,但不能按软件股估值去看。它更接近“带AI属性的基础设施REIT/运营商”。
2. 储能与电力缓冲:AI不是只要电,还要稳定的电
FLNC、EOSE、ENPH这类公司对应的是AI电力系统里的“缓冲层”。
数据中心对电力的要求不是“平均有电”就够,而是要连续、稳定、高可靠。AI训练任务不能频繁中断,推理服务更不能大面积掉线。
储能、UPS、逆变器、微电网的价值就在于:
平滑电力波动; 提供备用电源; 降低峰值负荷; 配合可再生能源; 缩短部分项目接电等待时间。
但这条线也有风险:储能和逆变器不是所有AI数据中心的万能解药。大型AI园区最终仍然需要稳定基荷电源和电网扩容。储能解决的是波动问题,不是长期电力总量问题。
第七层:能源原力——VST、CEG、TLN、GEV、BE、OKLO
AI行情最有意思的变化,是资金开始买电力股。
这不是简单炒作,而是因为AI已经把“电”从成本项变成战略资源。
IEA预计,到2030年全球数据中心电力需求将增长至约945太瓦时,较当前水平大幅提升,其中AI是主要驱动因素之一;在美国,数据中心预计将贡献未来电力需求增长的重要部分。 美国能源信息署也预计,美国电力需求将出现多年强劲增长,数据中心是主要驱动因素之一。
更直观的是,伯克利实验室的报告指出,美国数据中心用电量已从2014年的58太瓦时增至2023年的176太瓦时,并可能在2028年达到325至580太瓦时。
这意味着未来AI竞争不只是芯片竞争,也是电力竞争。
1. VST、CEG、TLN:发电资产的稀缺性被重新定价
Vistra、Constellation Energy、Talen Energy这类公司,本质是拥有发电资产的电力公司。它们的AI逻辑不是“做AI”,而是数据中心需要大量稳定电力,而可调度电源越来越稀缺。
其中,核电、燃气、电力市场化地区的发电资产会被重新重视。原因很简单:数据中心不是普通居民用电,它需要大规模、长期、稳定、可预测的电力供应。
这一层的看点是:
数据中心PPA长期电力协议; 电价中枢是否上移; 核电资产重估; 区域电网容量限制; 发电资产与云厂商绑定程度。
风险则包括监管、电价政策、燃料价格、设备检修、极端天气和政治因素。
这类公司不应该被当成“科技股”看,而应该被看成AI时代的能源基础资产。
2. GEV:电网和电力设备的“铲子股”
GE Vernova的逻辑更偏设备端。
AI数据中心要接入电网,需要变压器、开关设备、电网升级、燃气轮机、电力系统控制。真正的瓶颈不只是“有没有发电厂”,还包括“电能不能送到机房”。
所以GEV的价值在于:它受益的不只是AI数据中心,也包括全球电网升级、电气化、能源安全和新能源并网。
这类公司弹性可能不如高beta AI股,但它代表的是更长期、更底层的基础设施支出。
3. BE、OKLO:高弹性能源方案,但风险更偏早期
Bloom Energy的逻辑在于现场发电和燃料电池。如果电网接入速度太慢,数据中心可能会考虑更多分布式能源和现场供电方案。
Oklo则更偏小型核能与先进核能的长期想象空间。它的叙事很强,因为AI数据中心需要稳定、低碳、长周期电力;但这类公司更依赖监管审批、技术验证、商业化进度和融资能力。
因此,BE和OKLO都不是传统意义上的稳健电力股,而是AI能源约束下的高弹性期权。
第八层:应用分发——MSFT、GOOGL、AMZN、ORCL
AI基础设施最后一定要回到一个问题:
这么多资本开支,最终谁来买单?
答案在云厂商和应用分发层。
微软、谷歌、亚马逊、甲骨文既是AI基础设施最大的买方,也是未来AI服务收入的主要变现入口。
1. MSFT:最强的企业AI分发入口
微软的核心优势不是单纯云计算,而是企业软件分发能力。
Office、Teams、Windows、Azure、GitHub、Dynamics,这些入口让微软有机会把AI变成企业日常工作流的一部分。微软最新财报显示,Microsoft Cloud季度收入达到515亿美元,同比增长26%;Azure和其他云服务收入同比增长39%。
MSFT的AI逻辑是:
Azure承接AI训练和推理需求; Copilot把AI嵌入企业软件; GitHub把AI嵌入开发者工作流; OpenAI生态带来模型层影响力; 企业客户迁移成本高。
风险在于,AI资本开支巨大,市场最终会要求微软证明Copilot和Azure AI能带来足够高的回报。
2. GOOGL:AI基础设施与模型能力都强,但需要证明云商业化
谷歌的优势是全栈能力:TPU、自研模型、搜索入口、YouTube、Android、Google Cloud。
Alphabet最新财报显示,Google Cloud季度收入177亿美元,同比增长48%;公司同时给出2026年1750亿至1850亿美元资本开支指引,AI基础设施投入强度非常高。
GOOGL的核心问题不是技术不行,而是市场要看:
Gemini能否真正转化为搜索和企业收入; Google Cloud能否持续缩小与AWS、Azure差距; 高资本开支是否会压制自由现金流; AI搜索是否影响传统广告模式。
如果谷歌能证明AI不只是成本中心,而是广告、云和企业服务的新增长点,它的重估空间仍然存在。
3. AMZN:AWS仍是云基础设施核心,同时自研芯片降低成本
亚马逊的AI逻辑主要在AWS。
AWS最新季度收入356亿美元,同比增长24%;亚马逊同时披露,Trainium和Graviton相关业务达到超过100亿美元年化收入规模,并提到Trainium2、Trainium3等自研芯片进展。
AMZN的优势在于:
AWS客户基础庞大; 云基础设施经验深; Trainium、Inferentia、Graviton有助于降低推理成本; 电商、广告、物流体系也能内部消化AI能力。
风险在于,AI资本开支会压低短期自由现金流,而市场会持续追问:AWS的AI收入增速能否覆盖基础设施投入?
4. ORCL:AI云黑马,关键看RPO兑现
Oracle这轮被市场重新认识,核心原因是AI云合同和RPO爆发。
公司最新财报显示,剩余履约义务达到5530亿美元,同比增长325%;云基础设施收入同比增长84%。公司还表示,RPO增长主要与大规模AI合同有关。
ORCL的看点是:
AI训练集群订单能否按期交付; 大客户合同能否转化为收入和现金流; 资本开支压力是否可控; 与OpenAI、xAI、Meta等AI客户的合作深度。
ORCL的风险在于,它的AI云增长很大程度依赖大额合同和基础设施建设速度。一旦交付节奏慢,估值波动会比较大。
三、下一阶段真正值得盯的,不是“谁有AI概念”,而是五个指标
AI产业链已经从讲故事进入验订单阶段。接下来选股不能只看公司名字里有没有AI,而要看五个硬指标。
1. 订单能见度
最重要的是订单,而不是口号。
关注:
backlog积压订单; RPO(Remaining Performance Obligations); book-to-bill(订单出货比); 大客户合同; 交付周期; 预付款和取消条款。
DELL、VRT、ORCL这类公司之所以被市场重估,核心就是订单和积压合同变得可见。
2. 是否卡在真实瓶颈上
AI产业链里有两类公司:
一种是“沾AI”;另一种是“没有它AI跑不起来”。
真正有重估价值的是第二类。
GPU、HBM、交换机、液冷、电源、发电资产,都是物理瓶颈。它们不是可有可无的配套,而是AI基础设施的约束条件。
3. 毛利率和现金流能否同步改善
AI订单很大,但不是所有订单都赚钱。
服务器整机、数据中心建设、算力租赁这类业务,收入可能增长很快,但资本开支、库存、融资成本也很高。
所以要特别警惕:
收入高增但毛利率下降; 订单多但现金流差; 项目大但融资压力大; 客户集中但议价能力弱。
4. 技术路线是否站对
AI基础设施里有很多路线之争:
GPU vs ASIC; InfiniBand vs Ethernet; 铜缆/AEC vs 光模块 vs CPO; 风冷 vs 液冷; 集中式电网 vs 现场发电; 公有云 vs 私有化部署。
每一次技术路线变化,都会改变产业链利润分配。
5. 估值是否已经透支
好公司不等于好价格。
AI基础设施是长期大趋势,但阶段性估值波动会非常大。尤其是高增长、高预期、高beta标的,只要订单略低于预期,股价就可能剧烈调整。
所以这轮行情不能用“AI长期好”四个字简单解释。真正要判断的是:
未来两到四个季度,公司的订单、收入、毛利率、现金流,能不能继续超出市场预期。
四、这轮AI行情的真正主线:从“算力芯片”到“工业底座”
如果把这轮AI行情分成三个阶段,大致可以这样理解:
第一阶段:算力稀缺
核心资产是NVDA、AMD、AVGO、ASML、HBM产业链。
市场买的是“谁能提供算力”。
第二阶段:系统稀缺
核心资产扩散到ANET、CRDO、CIEN、DELL、SMCI、VRT、MU。
市场买的是“谁能让算力集群跑起来”。
第三阶段:能源稀缺
核心资产扩散到VST、CEG、TLN、GEV、BE、OKLO,以及储能、电网、备用电源相关公司。
市场买的是“谁能让数据中心长期、稳定、低成本运行”。
AI的终局不是模型竞赛,而是基础设施竞赛
过去大家问的是:
谁的模型更强?谁的GPU更多?谁的参数更大?
未来真正重要的问题会变成:
谁能拿到足够多的电?谁能最快建成数据中心?谁能把十万卡集群稳定跑起来?谁能让推理成本持续下降?谁能把AI能力分发到最多企业和用户?
AI革命表面上是算法突破,底层其实是一场超大规模工业基础设施重建。
英伟达打开了第一扇门,但后面的机会正在沿着服务器、存储、网络、散热、电力、云平台继续扩散。
未来三到五年,AI产业链最值得重视的,不是喊AI口号最响的公司,而是那些真正卡住瓶颈、拥有订单、具备交付能力、能够把资本开支转化为现金流的公司。
这才是AI行情后半场的核心:
从“谁有芯片”,到“谁能建厂”;从“谁有算力”,到“谁有电力”;从“谁讲故事”,到“谁能交付”。