1、业务板块运营表现及展望
整体业绩概况:2026财年Q1总营收达193亿美元,同比增长29%,增长主要由AI半导体业务好于预期的表现拉动。同期合并调整后EBITDA达到131亿美元,占营收的比例为68%,体现出规模效应带来的显著经营杠杆。2026财年Q2整体营收指引为220亿美元,对应同比增速47%。
半导体业务表现:2026财年Q1半导体业务营收达125亿美元,同比增长52%。其中AI半导体营收84亿美元,同比增长106%,表现远超预期;AI网络业务营收同比增长60%,占当期AI总收入的三分之一,增长主要源于率先推出的100Tbps Tomahawk 6交换机及200G系列产品获得超大规模客户需求;非AI半导体营收41亿美元,同比持平,符合指引,企业网络、宽带、服务器存储收入的同比增长抵消了无线业务的季节性下滑。2026财年Q2半导体业务指引营收为148亿美元,同比增长76%,其中AI半导体营收预计达107亿美元,同比增速将大幅提升至240%,AI网络收入预计占当期AI总收入的40%;非AI半导体指引营收为41亿美元,同比增长4%。AI网络业务方面,2027年将推出性能翻倍的下一代Tomahawk 7交换机,领先优势将进一步延续;同时200G系列产品可支持客户使用直连铜缆,2028年升级到400G系列后仍可沿用该方案,相较光方案成本更低、功耗更小,竞争力突出。目前与6家客户开展深度多年战略合作,共同开发AI XPUs,已覆盖谷歌、Anthropic、Meta、OpenAI等客户,2027年多家客户的AI芯片需求将大幅增长。已锁定2026-2028年先进晶圆、高带宽内存、基板等核心组件的产能,可保障供应稳定,目前已明确2027年仅AI芯片收入目标就超过100亿美元,且已匹配对应的供应链资源。
2、财务及资本运作情况
Q1详细财务指标:2026财年Q1合并营收达193亿美元,同比增长29%。核心财务指标方面,整体毛利率为77%,合并运营支出20亿美元,其中研发支出15亿美元;运营收入达128亿美元,同比增长31%,运营利润率同比提升50个基点至66.4%;调整后EBITDA为131亿美元,占营收比例达68%,高于此前67%的指引。分业务板块来看,半导体解决方案板块营收创纪录达125亿美元,同比增长52%,占总营收的65%,板块毛利率同比提升30个基点至68%,运营支出11亿美元(占营收的8%)主要用于前沿AI半导体研发,运营利润率同比提升260个基点至60%,呈现强劲运营杠杆效应;基础设施软件板块营收68亿美元,同比增长1%,占总营收的35%,板块毛利率达93%,运营支出9.79亿美元,运营利润率同比提升190个基点至78%。
现金流与资本分配:2026财年Q1运营及资本分配相关数据如下:自由现金流达80亿美元,占营收比例为41%,当期资本支出为2.5亿美元;期末库存达30亿美元,库存周转天数为68天,较2025年四季度的58天有所提升,主要为应对AI半导体需求加速增长提前备货。资本回报方面,当期向股东派发现金股息31亿美元,对应普通股季度现金股息为每股65美分;同期回购普通股约2300万股,涉及金额78亿美元,合计通过股息及回购向股东返还109亿美元。此外,董事会已批准新增100亿美元股票回购额度,有效期至2026年底,期末公司现金储备达142亿美元,二季度非GAAP摊薄股份数预期约为49.4亿股(不含潜在股份回购影响)。
3、核心业务热点问题答疑
AI业务空间及需求逻辑:明确2027年显著超100亿美元的AI相关收入统计口径为XPU、交换芯片、DSP等硅基产品。当前AI算力需求呈双轮驱动特征:一方面LLM训练需要持续的高性能算力支撑,另一方面AI推理需求增长超出预期,下游客户为实现LLM产品化与商业化,对推理侧算力的需求快速攀升,是拉动算力需求的重要增量。核心下游客户以LLM开发与运营主体为主,普遍围绕生成式AI平台建设布局,算力需求具备持续性,2027年预计出货的算力规模接近10吉瓦。
定制AI芯片竞争优势:客户自研定制AI芯片(COT)面临多重核心挑战:技术层面需要顶尖的芯片设计团队、先进封装技术及集群组网能力支撑,量产层面需要实现大规模量产下的良率与成本控制,多数厂商难以兼顾性能、量产效率与成本优势。公司在定制AI芯片领域技术领先行业12-18个月,拥有20余年硅基产品研发与量产经验,是行业内少数可实现高性能AI芯片大规模稳定量产的厂商。短期来看客户自研项目不会对公司市场份额造成明显冲击,长期竞争格局的实质性变化仍需较长时间。
AI网络及技术趋势:AI网络业务的高速增长由核心产品的技术稀缺性驱动:Tomahawk6是当前市面唯一的100Tbps交换机,可满足新一代GPU/XPU集群的高带宽需求;公司同时是行业唯一能够提供1.6T DSP产品的厂商,与交换机产品形成协同,共同拉动AI网络业务增速高于AI计算芯片增速。长期来看,AI网络收入占AI总收入的比例将稳定在33%-40%区间。架构演进层面,通用GPU的“一刀切”设计存在效率瓶颈,XPU可针对混合专家模型、推理等特定工作负载定制优化,效率优于通用GPU,未来将成为更多客户的选择。
供应链与毛利率说明:针对市场关注的AI相关产品对毛利率的影响,明确AI产品毛利率稳定,与公司现有半导体业务盈利水平基本一致,不会拉低公司整体毛利率,不存在市场担忧的毛利率大幅下滑情况。供应链层面,公司已提前锁定2026-2028年包括玻璃、基板在内的核心组件产能,是行业内最早完成长周期产能储备的厂商之一。提前锁定产能一方面得益于公司对行业需求的前瞻性预判,另一方面也来自与核心供应商的长期稳定合作,为后续业务增长提供了坚实的供应保障。
客户合作与长期规划:当前公司核心AI客户共6家,均为LLM开发与运营领域的核心双方合作均为多年战略级绑定,客户会提前2-4年同步自身技术路线、算力需求与长期规划,需求具备极强确定性,与GPU等通用产品的交易性采购存在本质差异。产品应用规划层面,XPU可同时适配训练与推理场景,多数客户会优先从推理场景切入使用定制XPU,凭借更高效率、更低成本与功耗替代通用GPU,再逐步向训练场景延伸;部分发展较为成熟的客户已开始同步开发专用训练芯片与推理芯片,匹配LLM模型迭代与产品化变现的节奏。技术路线长期趋势方面,以太网已成为AI集群横向扩展与纵向扩展场景的首选协议,机架内纵向扩展场景仍以直连铜缆为最优连接方案,CPO技术的大规模商业化落地尚需时间。
Q:提及的超1000亿美元AI芯片中,A6与网络的区别是什么?RAX收入如何定位?对投资者认为超大规模厂商需在今、明或后年获得投资回报的悲观情绪有何看法?如何将其纳入展望?
A:过去几个月及持续观察到,客户不限于少数超大规模厂商,无论是否为超大规模厂商,均以创建大语言模型、将其产品化及打造面向企业或消费者的平台为共同目标。这些客户正打造生成式AI平台,我们看到其对训练及推理的算力需求非常强劲。关于澄清:当预测2027年营收显著超1000亿美元时,聚焦的是芯片。
Q:基于对明年的业务能见度,COT项目是否会抢占Broadcom显著的TPU/XPU份额?且鉴于Broadcom的TPU/XPU项目在性能、复杂度及IP方面领先行业内COT项目12-18个月,团队将如何进一步扩大差距?
A:超大规模服务商或大语言模型开发者尝试通过COT实现自给自足时,面临涵盖XPU硅芯片设计、先进封装及芯片网络集群等领域的巨大技术挑战。若要参与竞争,需具备顶尖硅芯片设计团队、前沿封装技术,以及快速的高产量生产能力与可接受的良率。Broadcom在上述领域保持显著领先,未来多年内不会面临COT项目的竞争;同时,公司在产品上市时间及高产量生产方面具备优势,此领域鲜有玩家能与之匹敌。
Q:短期驱动网络业务占AI收入达40%的因素是什么?长期来看,网络业务在1000亿+收入中的占比是否会变化?预期在该业务中保持何种领导力,且其领导力是否通过跨计算与网络优化助力XPU业务?
A:短期驱动因素为新一代GPU/XPUs对200千兆及更高SerDes的需求,公司9个月前推出的Tomahawk 6是唯一100太比特每秒交换机,且为唯一拥有1.6太比特DSP用于光收发器的厂商,上述组合推动网络业务增长快于XPU;长期来看,预期网络业务占AI收入的33%至40%;将通过2027年推出的下一代Tomahawk 7扩展性能以保持领导力;网络业务的领导力有助于跨计算与网络优化,进而助力XPU业务。
Q:将预填充工作负载推至CPX、解码工作负载依托Grok的拆分模式,是否会对定制化需求与全GPU堆栈需求产生压力?
A:该问题本质是AI加速器架构如何随工作负载演变。通用GPU并非一刀切的解决方案,虽可运行混合专家模型等不同工作负载,但因GPU基于密集矩阵乘法设计,需通过软件内核实现,效率低于定制硅片;而针对混合专家模型等特定工作负载设计的XPU性能更优。
Q:公司发货毛利率约45%-50%的机架时,混合毛利率是否会拉低约500个基点及毛利率是否有最低阈值?
A:公司毛利率保持稳定,AI产品出货不会影响毛利率。目前yield及成本控制已使AI模型的毛利率与其他半导体业务一致,发货机架对整体混合毛利率的影响极小。
Q:2027年计划出货的gigawatts数量按Anthropic 3、OpenAI 1、Meta至少2、Google至少3及其他合计8-9计算是否正确?单位gigawatt对应的内容价值如何支撑远超过1000亿的规模?
A:按gigawatts计量芯片销售是正确的,因芯片按此单位销售;单位gigawatt对应的价值因LLM客户差异显著,接近提及的范围;2027年计划出货量接近10 gigawatts。
Q:公司2028年四大主要组件的供应可见性如何实现;2027年AI业务显著增长后,基于现有供应2028年是否具备足够可见性实现大幅增长且能否实现增长?
A:公司预期快速增长,早期锁定T玻璃与基板,关键组件拥有优质合作伙伴;为6家客户定制硅芯片,双方存在深度战略多年合作,客户会分享2-3年的计划;通过与合作伙伴投资开发适配技术及产能,多年来保障了供应。基于现有供应,公司2028年可以实现增长。
Q:Anthropic项目今年约200亿对应1吉瓦的投入中,芯片与机架的占比各是多少?1000亿芯片与机架规模项目是否有区别?AI业务从单一大型独家客户转向多客户多供应商的情况下,如何获得多客户份额进展的能见度及信心?应对客户跨云服务商的分散情况,采取哪些措施确保在多供应商的分散客户中获得稳定能见度及合理市场份额?
A:暂不回答Anthropic项目中芯片与机架的占比问题。驱动规模与收入的客户仅6家,这些客户的支出及项目重要性均属战略层面,其会分享大语言模型开发及推理产品化轨迹的清晰能见度。云服务商/超大规模企业的GPU使用为交易性/可选,公司客户具备战略性、针对性及清晰路线图预测,机会性/可选部分另行区分。
Q:公司特别指出客户使用直连铜缆至400G 30s的原因是什么?以及随着客户增加,设计AS的客户使用扩展协议的情况下,扩展协议及互联网的发展趋势如何?
A:直连铜缆是连接GPU/XPU至XPU的最佳方式,具备最低延迟、功耗和成本优势,尤其适用于机架或集群域的扩展;扩展时使用光模块。公司依托Broadcom技术,可通过铜缆实现XPU/XPU或GPU/GPU连接,支持100G至400G速率,目前客户使用直连铜缆至400G 30s;即使作为CPO领域先驱,CPO会适时到来。以太网是云环境下扩展的默认标准,当前扩展的正确选择也是以太网;去年公司与多家超大规模厂商及半导体同行宣布以太网扩展是正确选择,众多XPU设计要求通过以太网扩展,公司将支持该需求。
Q:明年公司除TPU外的其他全定制XPU项目是否主要针对推理应用?以及相对于GPU,这些XPU在性能或成本上有哪些优势使得客户能够进行大规模预测?
A:大部分客户从推理应用开始,因推理计算量较小,且定制XPU相比通用GPU在推理任务上更高效、成本更低、功耗更低。目前客户已将XPU扩展至训练场景,部分XPU可同时用于训练与推理且两者可互换。随着客户在XPU研发上日益成熟,未来将每年同时开发训练与推理专用芯片——训练用于提升大语言模型智能水平,产品化需依托推理,客户需同时投资训练与推理的芯片及产能以保持竞争力,避免因推理产品化周期过长被竞品超越。
Q:过去1-2个季度公司对客户情况的可见性变化及带来提供更多细节的信心来源是什么?OpenAI 2027年超1吉瓦、2029年达10吉瓦的规划是否意味着2028年有大幅增长,且该规划是否始终存在?
A:生成式AI发展需训练与推理;公司与客户合作已超两年,随着客户对双方联合开发的XPU信心持续提升,公司对客户情况的可见性逐步增强;公司合作的6个客户均以战略视角看待XPU及AI业务,着眼于多代、多年长期布局,将公司纳入其战略规划而非短期交易选项,因此XPU业务对这6个客户具备战略可持续性。


