推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  带式称重给煤机  减速机型号  减速机  链式给煤机  履带  无级变速机 

博通FY2026 Q1财报电话会解读

   日期:2026-03-08 22:00:54     来源:网络整理    作者:本站编辑    评论:0    
博通FY2026 Q1财报电话会解读

博通Q1 AI收入同比+116%,Q2预计+240%——这不是普通的增长数字,而是定制芯片时代全面到来的信号。六家超大规模客户正在把AI算力的主导权,从英伟达手里往回夺

六个核心判断

① 数字比任何分析都有说服力: Q1总营收193亿美元创历史新高,AI收入84亿美元同比+116%;Q2指引AI收入107亿美元同比+240%——增速还在加速

② 2027年是关键拐点: 博通明确表示2027年AI芯片总收入有望超1000亿美元,来自六个超大规模客户的定制芯片和网络芯片需求将出现「急剧拐点」

③ 六个客户撑起一切: 整个AI业务的收入体量,来自且仅来自六家超大规模客户——谷歌、Meta、微软、字节等。每一家都已有多代芯片的长期规划,不是短期机会,是战略级绑定

④ 定制芯片不是威胁英伟达,是另一个市场: CEO明确:做出能与英伟达竞争的芯片需要顶级硅片设计团队+先进封装+网络集群经验,三者缺一不可。自研芯片项目短期内撼动不了英伟达,但博通受益于两边

⑤ 网络是被低估的主线: AI网络收入预计占AI总收入33-40%,过去6-9个月增速高达200-300%。铜缆直连(DAC)+以太网组合是超大规模集群的主流选择,博通是最大受益方

⑥ 训练+推理双芯策略正在成为头部客户标配: 最成熟的超大规模客户正在同步开发训练芯片和推理芯片——「超级智能」时代,推理算力和训练算力缺一不可

一、财报数字:用数据说话

最值得关注的信号:AI收入增速从Q1的+116%跳升至Q2预期的+240%——这不是基数效应,是真实需求加速的体现。半导体整体营收Q2预计148亿美元,同比+76%,其中AI驱动的部分占绝对主导。

二、「六个客户」:理解博通AI业务的核心钥匙

博通的AI业务有一个极为特殊的结构:整个庞大的AI收入,来源于且仅来源于六家超大规模客户(Hyperscaler)。这些客户包括谷歌、Meta等科技巨头,他们正在大规模部署专属定制芯片(ASIC)替代或补充英伟达GPU。

为什么只有六个客户,却能创造百亿级收入?

因为这六家客户每一家的需求规模都是天文数字。他们不是在「试水」定制芯片,而是在做多代、多年的战略级部署:

每家客户都清楚地知道自己每一年要建设多大的算力容量

与博通的合作不是一次性交易,而是跨越多个芯片世代的长期绑定

部分供应已锁定至2028年及以后,供应链可见度极长

每家客户的定制芯片路线图都已明确,博通完全清楚下一代芯片的方向

CEO原话的含义:「我们不把任何一个客户当作备选项,每一个都是战略级的」——这意味着博通和这六家客户之间,是深度技术绑定,不是普通供应商关系。换一家供应商的切换成本,可以用「数年」来衡量。

三、定制芯片(ASIC)vs 英伟达GPU:不是替代,是共存

超大规模客户为什么要做自己的芯片?

通用GPU(英伟达)的问题在于「通用」二字本身——它为广泛适用性设计,但具体到某家公司的特定工作负载(比如谷歌的搜索推理、Meta的推荐系统),专用芯片可以做得更高效、更省电、更便宜。

随着AI工作负载日趋多样化和专业化,训练、推理、强化学习各有不同的算力需求模式,「一块GPU打天下」的方案开始出现效率瓶颈。

但自研芯片为什么很难超越英伟达?

博通CEO在电话会上对这个问题给出了清晰的判断:

需要顶级硅片设计团队——不是招几个工程师就能做到的

需要先进封装技术——台积电CoWoS等先进封装是卡脖子环节

需要网络集群专业知识——如何把几千块芯片联网协同工作,经验壁垒极高

英伟达每一代都在进步——即使某次追上,下一代又被拉开

核心逻辑:定制芯片和英伟达不是零和游戏。超大规模客户会同时部署两者——英伟达用于通用训练,自研ASIC用于大规模推理部署。博通是ASIC定制的最大受益方,英伟达的需求并不因此减少。

四、网络:被低估的主线

为什么说AI网络是主线而不是配角?

很多人关注博通时,焦点放在XPU(定制加速器芯片)上,但实际上AI网络部分的增速同样惊人,且往往被低估:

过去6-9个月,AI网络收入增速高达200-300%

预计AI网络收入将占AI总收入的33-40%

下一代GPU/XPU对带宽需求更高,网络芯片需求随每一代新产品换代加速增长

技术路线:铜缆直连+以太网的组合

在大规模AI集群的组网方案上,博通给出了清晰的技术立场:

集群内部(Scale-up):铜缆直连(DAC)是首选——延迟最低、功耗最省,支持从100G到200G乃至400G的速率演进

集群之间(Scale-out):以太网是行业共识——可扩展性强、生态完善,博通已与多家超大规模客户达成深度合作

以太网在AI数据中心的规模扩展中正在确立统治地位——这对博通是极大利好,因为博通的以太网交换芯片(Tomahawk/Trident系列)是市场上最主流的方案。

五、训练芯片+推理芯片:「双芯」策略正在成为标配

这是电话会上一个值得高度关注的趋势信号:最成熟的超大规模客户,正在同步开发两种芯片——一种专门用于训练,一种专门用于推理。

为什么?

训练和推理的计算特征完全不同:训练需要高带宽、大内存、高并行度;推理需要低延迟、高吞吐、低功耗

用同一块芯片做两件事,意味着两件事都不是最优的

当AI模型从「实验室工具」变成「生产服务」,推理算力的成本效率变得与训练同等重要

CEO的表述暗示:在迈向「超级智能」的路上,推理芯片的投资和训练芯片是同等优先级的——两者必须同步推进,缺一不可。

对行业的意义:这意味着超大规模客户的芯片采购需求将从「每年一颗」变成「每年两颗」,博通潜在的定制芯片市场空间直接翻倍。

六、2027年:一个被反复提及的时间节点

在整个电话会中,「2027年」被多次提及,值得单独拿出来理解:

AI芯片总收入预计2027年超过1000亿美元

超大规模客户已将供应锁定至2028年及以后,2027年的需求能见度已经很清晰

当前最成熟客户已在朝「超级智能」方向演进,2027年将看到明显的能力跃升

CEO形容2027年将出现「急剧拐点」(pretty sharp inflection)

市场经常忽视的一点:当一家公司的CEO在财报电话会上反复锚定某个年份,通常意味着他手里有清晰的订单和路线图在支撑——而不只是乐观预测。博通锁定的六个客户已经给出了到2028年的明确需求计划,这是罕见的长周期可见度。

七、风险提示

客户集中度风险:六个客户撑起全部AI收入,任何一家削减资本开支或转向其他供应商,都会造成业绩波动

英伟达竞争加剧:若英伟达加速推出针对推理场景的低成本方案,可能影响超大规模客户的定制芯片意愿

资本开支周期见顶:若全球AI基础设施投资进入调整期,2027年拐点可能延迟

台积电先进制程产能:博通XPU和网络芯片均依赖台积电3nm/2nm,产能争抢可能影响交付节奏

地缘政治风险:部分超大规模客户有中国背景,美国出口管制政策收紧可能影响相关客户的芯片采购

每日上传超300份调研纪要、研报、电话会议等机构内部资料,产业动态、公司变化实时发布独家投研团队纪要解读、赠送量化代码。加入星球获取最新信息,比99%的人更具信息优势

免责声明

本文内容综合整理自公开机构调研电话会议,仅供参考交流,不构成任何投资建议。市场有风险,投资需谨慎。

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON