重要信息总结:
1. 博通2026财年第一季度,总营收193亿美元,同比增长29%,预计第二季度,营收约220亿美元,同比增长47%,环比增长14%。
2. 半导体业务一季度收入125亿美元,同比增长52%,其中AI半导体收入84亿美元,同比增长106%,是业绩增长的主要驱动因素。随着AI的加速发展,预计二季度半导体收入148亿美元,同比增长76%,环比增长18%,其中AI半导体收入107亿美元,同比增长140%。
3. 谷歌对博通第七代Ironwood TPU的需求十分强劲,公司将在2026年继续保持增长态势。展望2027年及未来,公司预计新一代TPU将迎来更强劲的需求。
4. 今年,公司已获得Anthropic的1GW的TPU算力订单,预计2027年将激增至超过3GW的算力规模。
5. 与近期一些分析师报告所称的相反,Meta定制加速器MTIA的发展路线图依然稳步推进。公司目前正处在出货阶段。针对下一代XPU(定制化AI芯片),公司预计将在2027年及以后实现高达数GW的规模部署
6. OpenAI成为博通的客户,OpenAI计划2027年部署他们的第一代XPU(定制化AI芯片),算力规模达到1GW。
7. 一季度人工智能网络收入同比增长60%,占人工智能总收入的三分之一。展望第二季度,博通预计人工智能网络的增长将进一步提速,其占比将升至人工智能总收入的40%。未来在AI业务总收入中,来自AI网络组件的占比将介于33%到40%之间。
8. 在纵向扩展方面,博通认为使用以太网才是正确的选择。公司率先推出100T的Tomahawk 6交换机以及200G SerDes,预计2027年推出Tomahawk 7交换机,其性能将实现翻倍。公司的200G SerDes可以帮助客户继续使用铜线连接,预计2028年,公司将推出400G SerDes,可以帮助客户继续使用铜线连接,而无需转向成本高昂的光连接方案。公司是全球唯一一家能够实现1.6T DSP处理能力的厂商
9. 公司预计2027年实现AI相关芯片收入超过1000亿美元,约10GW的算力规模。
10. 非AI半导体业务,第一季度收入为41亿美元,与去年同期持平,预计二季度也是41亿美元,同比增长4%。
11. 一季度,基础设施软件收入为68亿美元,同比增长1%。展望第二季度,预计基础设施软件收入约72亿美元,同比增长9%。VMware的收入同比增长了13%。第一季度已确认的合同超92亿美元。VMware Cloud Foundation(VCF)是数据中心的核心软件层,它将CPU、GPU、存储和网络整合到一个统一的高性能私有云环境中。作为连接人工智能软件与物理芯片的不可或缺的桥梁,VCF无法被绕过或取代。
12. 公司的重要客户都已踏上打造自家定制加速器的道路,甚至正在设计专属于这些定制加速器的网络集群架构。客户也在自研芯片,分析师担忧客户自研芯片将会影响博通、英伟达等第三方专业芯片供应商的市场份额,但是博通认为芯片设计、大规模量产是非常专业的活动,非专业领域的公司要短期内设计并大批量制造出一款性能优于博通、英伟达芯片性能的产品是不太可能的。因此博通并不担心客户自研芯片会降低自己的份额。
13. 博通认为未来AI芯片将朝着ASIC的方向发展,因为定制化的芯片可以针对特定工作负载实现更佳的性能和功耗,在特定工作负载上胜过GPU。博通已在客户中看到了这一趋势和发展路线。
14. 博通观察客户正迈向完全采用XPU的阶段——他们开始每年同步研发两款芯片:一款用于训练,另一款用于推理,以实现专门化。训练芯片,是为了打造下一代超级智能的大语言模型,推理芯片是把训练好的大语言模型产品化,变现。
15. 为了保障供应,博通已提前锁定了供应链(比如T-Glass),为2027、2028年的出货做好准备。而出货量的预测,是基于公司与客户的充分交流,客户给的预期。博通预计2027、2028年需求将持续增长。(注:T-glass是一种高端玻璃纤维织物(低热膨胀系数,Low-CTE),由高纯度二氧化硅和氧化铝制成,具有高刚性、超低热膨胀和尺寸稳定性,能有效抑制先进封装中的材料变形和翘曲,是AI服务器芯片封装基板(如ABF载板)的关键材料)
***以下为会议内容翻译,供参考***
时间:2026年3月4日下午5:00(美国东部时间)
公司参与者
Ji Yoo——投资者关系总监
Hock Tan——总裁、首席执行官兼执行董事
克里斯汀·斯皮尔斯——首席财务官兼首席会计官
查理·卡瓦斯——半导体解决方案总裁
电话会议参与者
布莱恩·柯蒂斯——杰富瑞有限责任公司研究部
哈兰·苏尔——摩根大通公司研究部
罗斯·塞莫尔——德意志银行股份公司研究部克
里斯托弗·缪斯——康托·菲茨杰拉德公司研究部
蒂莫西·阿库里——瑞银投资银行研究部
斯泰西·拉斯贡——伯恩斯坦机构服务有限责任公司研究部
本杰明·赖茨斯——梅利斯研究有限责任公司
维韦克·阿亚——美银证券研究部
托马斯·奥马利——巴克莱银行股份有限公司研究部
詹姆斯·施奈德——高盛集团有限公司研究部
乔舒亚·布查勒——道明考恩研究部
演示
主持人
欢迎参加博通公司2026财年第一季度财务业绩电话会议。现在,首先由博通公司投资者关系负责人Ji Yoo先生致辞并作简要介绍。
Ji Yoo,投资者关系总监
谢谢您,主持人,各位下午好!今天电话会议的与会嘉宾有:总裁兼首席执行官Hock Tan、首席财务官克里斯汀·斯皮尔斯、半导体解决方案部门总裁查理·卡瓦斯,以及基础设施软件部门总裁拉姆·维拉加。博通在市场收盘后发布了新闻稿和财务数据表,详细介绍了我们2026财年第一季度的财务表现。如果您尚未收到相关资料,可登录博通官网 broadcom.com 的“投资者”专区获取。本次电话会议将进行网络直播,您也可通过博通官网“投资者”专区收听会议录音回放,该录音回放将持续提供一年。
在预先准备的发言中,Hock和克里斯汀将详细介绍我们2026财年第一季度的业绩表现、对2026财年第二季度的指引,以及有关经营环境的评论。我们的预先准备的发言结束后,我们将进入问答环节。请参阅我们今天的新闻稿及近期向美国证券交易委员会提交的文件,以了解可能导致实际业绩与本次电话会议中前瞻性陈述存在重大差异的具体风险因素。除了按照美国通用会计准则(U.S. GAAP)进行报告外,博通还以非GAAP基础披露了部分财务指标。今日新闻稿所附表格中包含了GAAP与非GAAP指标之间的调节说明。今天电话会议期间的发言主要涉及我们的非GAAP财务业绩。现在,我将把话筒交给Hock。
Hock Tan,总裁、首席执行官兼执行董事
谢谢Ji,也感谢各位今天能与我们相聚。在2026财年第一季度,我们的总营收创下历史新高,达到193亿美元,同比增长29%,并超出了我们的预期指引,这主要得益于人工智能半导体业务的超预期增长。这一强劲的收入表现转化为卓越的盈利能力,一季度经调整后合并EBITDA再创新高,达到131亿美元,占营收的68%。这些数据充分表明,我们的规模优势正持续推动显著的运营杠杆效应。目前,我们预计这一发展势头将进一步加速,因为我们定制化的AI XPU将在五大客户中进入下一阶段的部署。展望下个季度——2026财年第二季度,我们预计合并营收将达到约220亿美元,同比增长47%。接下来,让我为大家详细介绍一下我们的半导体业务情况。
第一季度,收入创下历史新高,达到125亿美元,同比增长加速至52%。这一强劲增长主要得益于人工智能半导体收入,其同比增幅高达106%,达到84亿美元,远超我们的预期。第二季度,这一增长势头将进一步加快,我们预计半导体收入将达到148亿美元,同比增长76%。推动这一增长的主要动力是人工智能收入的迅猛增长,其同比增速将大幅提速至140%,达到107亿美元。此外,我们在第一季度的定制加速器业务同比实现了140%的增长。这种增长势头在第二季度将继续延续。目前,我们五大客户定制人工智能加速器的部署进度均进展顺利。关于谷歌,他们对第七代Ironwood TPU的需求十分强劲,我们将在2026年继续保持增长态势。展望2027年及未来,我们预计新一代TPU将迎来更强劲的需求。对于Anthropic,我们在2026年的开局非常顺利,已获得1GW的TPU算力订单。而到2027年,这一需求预计将激增至超过3GW的算力规模。需要补充的是,我们的XPU产品线并不仅限于TPU,其覆盖范围远不止于此。
与近期一些分析师报告所称的相反,Meta定制加速器MTIA的发展路线图依然稳步推进。我们目前正处在出货阶段。事实上,针对下一代XPU,我们将在2027年及以后实现高达数GW的规模部署。对于客户第4和第5位,我们预计今年将有强劲的出货量,并且到2027年这一数字有望实现翻倍以上。此外,我们如今已新增第六位客户——OpenAI计划于2027年大规模部署其第一代XPU,计算能力将超过1GW。借此机会,我想特别强调一下,我们与这6位客户的合作堪称深入、战略性且为期多年。在这些合作中,我们为每一家客户带来了无与伦比的技术优势,涵盖SerDes技术、硅芯片设计、工艺技术、先进封装以及网络连接等领域,助力各客户为其差异化的大型语言模型工作负载实现最优性能。我们拥有丰富的经验,能够以极快的市场投放速度和超高良率,大规模交付这些XPU产品。除了技术层面的支持,我们还与客户签订了多年期供应协议,以确保随着客户计算基础设施的规模化部署,我们的供应能力也能同步增长。
在当前先进制程芯片、高带宽内存和基板产能受限的时期,我们确保供应的能力有力地巩固了我们的合作伙伴关系。我们已全面锁定这些组件在2026至2028年的产能。与我们XPU业务的强劲前景相一致,人工智能网络的需求正加速增长。第一季度,人工智能网络收入同比增长60%,占人工智能总收入的三分之一。展望第二季度,我们预计人工智能网络的增长将进一步提速,其占比将升至人工智能总收入的40%。我们在网络领域的确正在稳步扩大市场份额。让我来具体说明一下:在纵向扩展方面,我们率先推出的每秒100T的Tomahawk 6交换机以及200G SerDes正持续赢得超大规模数据中心客户的青睐——无论他们今年采用XPU还是GPU,都对这些产品表现出浓厚兴趣。这一领先优势将在2027年进一步延续,届时我们将推出新一代的Tomahawk 7交换机,其性能将实现翻倍。
与此同时,在纵向扩展方面,随着客户集群规模的不断扩大,我们凭借自身的200G SerDes,具备独特优势,能够帮助客户继续采用直连铜缆方案。展望未来,当我们在2028年迈向400G SerDes时,我们的XPU客户很可能会继续选择直连铜缆方案。这一选择具有巨大优势,因为转向光模块的替代方案成本更高,且功耗也大幅增加,这充分体现了上述各项因素的影响。我们对2027年的前景预测已显著改善。事实上,目前我们已具备清晰的路径,有望在2027年实现AI相关芯片收入超过1000亿美元。同时,我们也已确保了实现这一目标所需的供应链资源。接下来,我们来看一下非AI半导体业务。第一季度收入为41亿美元,与去年同期持平,符合此前预期。其中,企业网络、宽带及服务器存储业务收入同比实现增长,但受季节性因素影响,无线业务收入出现下滑。预计第二季度,非AI半导体业务收入将达到约41亿美元,较去年同期增长4%。
接下来,我来谈谈我们的基础设施软件业务板块。第一季度,基础设施软件收入为68亿美元,与我们的预期相符,同比增长1%。展望第二季度,我们预计基础设施软件收入将达到约72亿美元,同比增长9%。其中,VMware的收入同比增长了13%。订单表现持续强劲,第一季度已确认的合同总价值超过92亿美元,推动年度经常性收入(ARR)同比增长19%。我想再次强调,我们基础设施软件业务的这一增长,充分体现了我们对基础架构领域的专注与投入。此外,我们的基础设施软件业务并未受到人工智能的冲击。
事实上,VMware Cloud Foundation(VCF)是数据中心的核心软件层,它将CPU、GPU、存储和网络整合到一个统一的高性能私有云环境中。作为连接人工智能软件与物理芯片——硅的不可或缺的桥梁,VCF无法被绕过或取代。实际上,正是凭借这一关键层,企业能够以硬件本身所无法提供的敏捷性,高效地扩展复杂的生成式AI工作负载。我们坚信,生成式和智能体人工智能的迅猛发展必将催生对更多VMware的需求,而非减少。那么,总而言之,让我来总结一下2026年第二季度的情况:我们预计合并营收同比增长将加速至47%,达到约220亿美元;同时,我们预计经调整后的EBITDA将占营收的约68%。接下来,就让我们把时间交给克里斯汀。
克里斯汀·斯皮尔斯,首席财务官兼首席会计官
谢谢,Hock。接下来,我来详细介绍一下我们第一季度的财务表现。本季度合并营收创下历史新高,达到193亿美元,较去年同期增长29%。本季度毛利占营收的77%。合并运营支出为20亿美元,其中研发支出达15亿美元。第一季度营业利润同样创下历史新高,达到128亿美元,较去年同期增长31%。受有利的经营杠杆效应影响,营业利润率同比提升50个基点,达到66.4%。调整后EBITDA为131亿美元,占营收的68%,高于我们此前给出的67%指引。接下来,让我们具体来看一下我们的两大业务板块。首先来看半导体业务。我们半导体解决方案业务的营收创下历史新高,达到125亿美元,同比增长加速至52%,主要得益于人工智能的推动。本季度,半导体业务营收占总营收的65%。
我们半导体解决方案部门的毛利率同比上升30个基点,达到约68%。运营支出为11亿美元,主要反映了我们在先进人工智能半导体领域的研发投资增加,这一数字占收入的8%。半导体业务的营业利润率高达60%,同比提升了260个基点,体现了强劲的经营杠杆效应。接下来,我们来看基础设施软件业务。该业务收入达68亿美元,同比增长1%,占总收入的35%。本季度,基础设施软件的毛利率为93%,运营支出为9.79亿美元。第一季度软件业务的营业利润率同比提升了190个基点,达到78%。再来看现金流情况。本季度自由现金流为80亿美元,占收入的41%。我们本季度的资本支出为2.5亿美元。截至一季度末,我们的库存金额为30亿美元,我们正持续采购零部件,以满足强劲的人工智能市场需求。
第一季度,我们的库存天数为68天,而第四季度为58天,这反映出我们预期人工智能半导体市场将加速增长。接下来谈谈资本配置情况。在第一季度,我们向股东派发了31亿美元的现金股息,每股普通股季度现金股息为0.65美元。此外,本季度我们还回购了价值78亿美元、约合2300万股的普通股。总体而言,第一季度我们通过股息和股票回购向股东返还了109亿美元。预计第二季度,不按美国通用会计准则计算的稀释后每股摊薄股数约为49.4亿股,这一数字尚未计入潜在的股票回购影响。截至第一季度末,我们的现金余额为142亿美元。今天,我们宣布董事会已批准额外100亿美元用于股票回购计划,该计划将持续至2026年年底。
接下来,我们来看一下指引。我们对第二季度的指引如下:合并营收预计为220亿美元,同比增长47%。其中,半导体营收预计约为148亿美元,同比增长76%。具体而言,我们预计第二季度人工智能相关半导体营收将达到107亿美元,同比增长约140%。基础设施软件营收预计约为72亿美元,同比增长9%。为便于各位建模,我们预计合并毛利率将环比持平,维持在77%。我们预计第二季度经调整后EBITDA约为68%。由于全球最低税率的影响以及收入的地域结构与2025财年相比有所变化,我们预计第二季度及2026财年的非GAAP税率约为16.5%。我的介绍到此结束。接下来,请主持人开启问答环节。
问答环节
主持人
我们的第一个问题来自杰富瑞的布莱恩·柯蒂斯先生。
布莱恩·柯蒂斯,杰富瑞有限责任公司,研究部
仅就这个问题做个澄清。Hock,我再确认一下,关于超过1000亿美元的部分。我想你刚才提到的是AI芯片。我想确认一下,你是否在明确区分ASIC与网络设备之间的差异,同时我不太清楚机架收入应如何归类。另外,关于这个问题,我认为目前部门面临的最大压力在于,本季度AI业务实现了大约翻倍的增长。我猜这正是今年云基础设施资本支出增长的主要驱动力。我很好奇您对此的看法:鉴于您对2027年的展望,我认为贵公司理应成为市场份额的赢家。不过,我也想了解一下您的观点——投资者似乎普遍持一种悲观态度,认为超大规模云服务商必须在今年或明年实现投资回报,否则可能要等到后年才能看到回报。我想听听您如何看待这一因素,并将其纳入您对未来前景的判断中。
Hock Tan,总裁、首席执行官兼执行董事
嗯,我们过去几个月所看到的——而且未来几个月还将持续看到的——其实并不主要涉及那些超大规模云服务商,我们的客户,布莱恩,也并不仅限于那为数不多的几家巨头。其中一些是超大规模云服务商,另一些则并非如此,但它们都有一个共同点:都在打造大型语言模型,将之产品化,并构建相应的平台——无论是面向企业用户,提供代码辅助或智能体式人工智能服务;还是面向消费者,推出订阅型产品。无论具体形式如何,这些客户都呈现出一个显著特点:很少是潜在客户,而是已经真正成为我们的客户,他们正在积极打造各类平台——不论是生成式AI还是智能体式AI。这正是我们的核心客户群体。针对这些客户,我们愈发明显地感受到他们对训练用计算能力的需求日益强劲,而这正是他们持续且迫切需要的。
但对我们而言,一件非常、非常有趣且令人惊讶的事是:为了将这些大型语言模型产品化,他们最新推出的大型语言模型正被用于推理任务,并以此实现盈利。而这种推理需求正驱动着海量的计算能力——这对我们来说再好不过了。因为目前,我们这五六个客户都已踏上打造自家定制加速器的道路。更进一步,他们甚至正在设计专属于这些定制加速器的网络集群架构。因此,我认为未来需求将持续攀升,正如我们在过去6个月里所听到的一系列公告所示。现在,我想就你第一部分的问题做个澄清:布莱恩,当我提到“我们预测”时,我们的依据是:到2027年,我们的收入将显著超过1000亿美元。我特别强调一点:这些收入几乎全部来自芯片——无论是XPU、交换芯片还是DSP,我们谈论的都是硅基元件。
主持人
请稍等,我们的下一个问题来自摩根大通的哈兰·苏尔。
哈兰·苏尔,摩根大通公司,研究部
恭喜团队取得优异成绩!Hock,最近关于云计算服务提供商和超大规模云厂商纷纷启动自主XPU、TPU设计的讨论可不少,对吧?我们称之为“COT”,即客户自有的工具。这种现象其实并不新鲜——早在ASIC领域就已出现过类似情况,不是吗?我想,博通团队在过去30多年里,作为ASIC行业的领军者,早已经历过这样的COT竞争态势。然而,真正成功的COT项目却寥寥无几。如今,在人工智能领域,一些COT项目正陆续推向市场,但看起来它们的性能至少比你们当前一代解决方案低一倍,芯片设计复杂度、封装复杂度以及知识产权方面的复杂度也都低了一倍。
那么,或许先问个简短的两个问题吧。Hock,第一个问题是:鉴于您对明年的洞察,您认为这些COT科学项目能否从博通那里夺取到任何有意义的TPU或XPU市场份额?第二个简短问题想请教您或查理:从性能复杂度的知识产权角度来看,博通的TPU和XPU项目在技术领先性上比这些COT项目超前12到18个月,那么博通团队将如何进一步拉大这一差距呢?
Hock Tan,总裁、首席执行官兼执行董事
嗯,这个问题问得真好。这也正契合了我在开场白中特意花时间强调的一点:当任何一家超大规模云服务商或大型语言模型开发者试图完全自主地打造我们所称的“客户自持工具链”——即COT模式时,他们将面临巨大的挑战。其中一项挑战便是技术层面的难题,尤其是与芯片设计相关的技术,特别是那些用于计算的XPU芯片。这些芯片对于优化并运行由大型语言模型生成的工作负载至关重要,包括模型训练和推理过程。我们刚才提到的这项技术,其实源自多个不同的维度。为此,我们必须拥有一支全球顶尖的硅芯片设计团队。
你需要尖端的、真正顶尖的SerDes技术,以及极为先进的封装工艺。更重要的是,你必须深刻理解如何将成千上万个这样的模块联网集成起来。我们已经在这一领域深耕了20多年——在硅基芯片领域更是超过20年。特别是在当今生成式AI这个细分市场,如果你作为大型语言模型(LLM)厂商打算自主研发芯片,绝不能只满足于“够用”的水平。你必须选用市场上最顶级的芯片,因为你在与众多其他LLM厂商展开激烈竞争。而其中最不容忽视的,还有始终严阵以待的英伟达。他们每一代都在不断推出性能更卓越的芯片。因此,作为一家力图在全球范围内确立自身平台地位的LLM厂商,你必须打造出不仅能够与英伟达抗衡,更能超越乃至碾压所有竞争对手的顶尖芯片。
而要做到这一点,你确实需要拥有坚定的信念。我们亲身体验到,与硅基领域顶尖的技术、知识产权和执行力伙伴合作,是何等重要。谦虚一点说,我认为我们目前远远领先于同行。在未来许多年里,我们都不会面临来自COT领域的激烈竞争。当然,竞争迟早会到来,但距离那一天还很遥远——因为我们所目睹的这场竞赛仍在持续。另外,我还想补充一点,对我们而言尤为独特的是:当你开发一款硅芯片时,必须迅速将其推向大规模量产并实现高效运行,也就是所谓的“上市时间”。我们在这一方面拥有极其丰富的经验。在实验室里设计出一款性能优异的芯片并不难,但要以可承受的成本和高良品率快速量产十万片这样的芯片,全球范围内能真正做到这一点的厂商并不多。查理,你觉得呢?
查理·卡瓦斯,半导体解决方案总裁
我觉得你讲得非常好,Hock。
主持人
请稍等,我们的下一个问题来自德意志银行的罗斯·塞莫尔先生。
罗斯·塞莫尔,德意志银行,研究部
Hock,在您的方案中,您对网络差异化这一方面的重视程度比以往有所增加。因此,我想问两个问题:一个属于短期问题,另一个则是长期问题。短期来看,是什么因素推动人工智能收入占比攀升至40%?而长期来看,这一比例构成——在超过1000亿美元的总收入中所占的比重——如今是否正在发生变化?您预计在这一业务领域将保持怎样的领导地位,无论是扩大规模还是深化布局?此外,您在这一领域的领导地位是否有助于XPU业务的发展,让您能够同时优化计算与网络两大板块?
Hock Tan,总裁、首席执行官兼执行董事
那么,罗斯,咱们先来解答一下这个相当复杂问题的第一部分吧。没错,在网络领域,尤其是随着新一代GPU和XPUs的推出,我们目前的带宽已达到200G的SerDes水平。而我们6个多月前——确切地说,差不多9个月前推出的Tomahawk 6,目前是市场上唯一一款这样的产品。我们的客户以及超大规模云服务商都希望为其集群配备性能最优、带宽最高的网络设备。因此,我们看到市场对这种100T的交换机需求巨大。这正是推动市场需求旺盛的重要因素之一。此外,随着光收发器带宽持续扩展至1.6T,这一趋势也进一步加剧了相关需求。
我们再次成为全球唯一一家能够实现1.6T DSP处理能力的厂商。正是这种技术组合,推动我们的网络组件增长速度甚至超过了XPU的增长速度——而XPU本身的增长已相当惊人。这就是您所看到的现状。不过,我预计在某个时候,这些趋势会趋于平稳。尽管如此,我们并不会放慢步伐,因为正如我之前所说,明年2027年,我们将推出下一代Tomahawk 7芯片,其性能将提升一倍,而且我们很可能会率先面市,这也将持续带动这一发展势头。最后,回到您的问题,是的,我预计在任何一个季度,我们AI业务总收入中,来自AI网络组件的占比都将介于33%到40%之间。
主持人
请稍等,我们的下一个问题来自康托·菲茨杰拉德公司的C.J.缪斯先生。
克里斯托弗·缪斯,康托·菲茨杰拉德公司研究部
好的。我很好奇,您如何看待将预填充(Prefill)和解码(Decode)从GPU生态系统中分离(disaggregate)出来的举措(注:LLM 推理过程可以分预填充(Prefill)阶段和解码(Decode),Prefill-Decode分离是一种先进的LLM服务架构,它将推理过程中的Prefill和Decode两个阶段,从物理上或逻辑上调度到不同的、专门优化的硬件集群(或资源池)中执行),以及这对定制硅芯片需求的影响?您是否观察到GPU与客户定制硅芯片之间相对占比的潜在变化?
Hock Tan,总裁、首席执行官兼执行董事
我不太确定自己是否完全理解您的问题。C.J.,您能再澄清一下,您所说的“分解(disaggregate)”具体是指什么吗?
克里斯托弗·缪斯,坎托尔·菲茨杰拉德公司研究部
当然。将工作负载推送到CPX进行预填充,然后基于图谱进行解码,构建这种解耦式的架构?那么,这是否会对定制化需求与采用完整GPU堆栈之间的权衡带来任何压力呢?
Hock Tan,总裁、首席执行官兼执行董事
好的,我明白你的意思了——之前我理解的分解(disaggregate)是错的。从某种意义上说,你真正想表达的是:随着工作负载的不断演进,人工智能加速器——无论是GPU还是XPU——其架构也在随之演变。这一点我们尤其明显地看到了。通用型GPU的“一刀切”模式,只能满足有限的需求。尽管如此,它仍能继续发挥作用,因为你依然可以运行各种不同的工作负载,比如混合专家模型。诚然,你可能会听到“混合专家模型”这一术语,它强调以较低的计算成本实现高效运行。然而,在GPU上,其设计初衷是为了进行密集矩阵乘法运算。因此,虽然你可以通过软件内核来实现这种功能,但效果终究不如直接在硅芯片上硬编码实现的XPU那么高效。举例来说,专门针对混合专家工作负载而设计的XPU,其性能要远胜于普通的GPU。同样的道理也适用于推理任务。
而这最终促使我们看到,XPU的设计正朝着更加针对特定大型语言模型客户特定工作负载的定制化方向发展。这种设计开始偏离传统的标准GPU架构。正因如此,正如我们此前一再强调的,XPU终将成为更优之选——因为它能够灵活地打造专为特定工作负载量身定制的解决方案,既适用于训练阶段,也适用于推理阶段。正如你所说,一种XPU可能更擅长预填充任务,而另一种则在训练后阶段、强化学习或测试时的规模扩展方面表现更佳。你可以根据自身需求,对TPU——不,是XPU——进行微调,以适配特定类型的大型语言模型工作负载。我们已经在所有五位客户中看到了这一趋势和路线图。
主持人
请稍等,我们的下一个问题来自瑞银的蒂莫西·阿库里先生。
蒂莫西·阿库里,瑞银投资银行,研究部
我有个问题,想请教一下,在这些机架开始出货时,毛利率会受到怎样的影响。显然,这会拉低综合毛利率,但我想了解一下,您能否给我们一些大致的参考范围?看起来,这些机架的毛利率可能在45%到50%左右。所以,我猜,随着这些机架陆续出货,我们是否应该预计毛利率会下降大约500个基点?另外,Hock,这部分原因中,是否也存在一个最低毛利率水平——低于这个水平,您们就不愿意再增加机架的生产了?
Hock Tan,总裁、首席执行官兼执行董事
真不好意思告诉你,你可能有点幻觉了。我们的毛利率完全符合克里斯汀所报告的数字。无论毛利率如何变化,以及越来越多的人工智能产品问世,我们都不会受到影响。我们已经实现了理想的良率,成本也已降至合理水平,以至于我们在人工智能领域采用的模式,将与我们在半导体业务其他领域的模式保持相当一致。克里斯汀?
克里斯汀·斯皮尔斯,首席财务官兼首席会计官
我同意这一点。我认为,经过进一步研究,甚至包括我上个季度所做的那些评论,这种影响对我们整体业务组合的实际影响其实微乎其微。所以,我倒不必为此担心。
主持人
请稍等一下,我们的下一个问题来自伯恩斯坦公司的斯泰西·拉斯贡。
斯泰西·拉斯贡,伯恩斯坦机构服务有限责任公司,研究部
我不知道我的这个问题应该问Hock还是克里斯汀,我想再深入探讨一下,明年将超过1000亿美元这一大笔资金。我试着粗略算了一下,看看有多少GW——我数了数,大概有8到9个吧。其中,Anthropic有3个,OpenAI有1个,加起来就是4个。你说Meta的规模是多个,至少也有2个,这样就凑够6个了。谷歌嘛,我觉得应该比Meta还大,至少得有3个,这样一来就是9个。另外还有几个其他公司。我之前以为,你们每GW的产品产值大概是200亿美元左右。所以我想问一下,我关于你们2027年计划交付的GW数量的计算是否正确?另外,随着这些GW陆续交付,你们每GW的产品产值又该如何估算呢?或许到时候,这个数字会“大幅”超过1000亿美元。
Hock Tan,总裁、首席执行官兼执行董事
斯泰西,你的视角非常有趣,这一点我真的很钦佩你。不过你说得对,我们确实可以着眼于GW这一指标——这其实才是更恰当的观察方式,而不是单纯看美元金额,毕竟我们的芯片也是按GW来定价的。你要明白,根据我们的大语言模型客户——目前我们有6位客户——不,不是5位,是6位——每GW芯片的美元定价会有所不同,有时甚至差异很大。的确存在这种波动。但你说得没错,这个价格与你所提到的美元数值相差并不远。如果按照2027年的GW来计算,我们预计这一数字将接近10GW。
主持人
接下来的问题来自梅利斯研究公司的本·赖茨斯。
本杰明·赖茨斯,梅利斯研究有限责任公司
Hock,很高兴与您交流。我想请教一下,您对到2028年这四大关键组件的供应可见性所做的评论。首先,您是怎么做到这一点的?这可能是——您是第一个将视野延伸至2028年的。其次,在您的AI业务于2027年实现如此惊人的增长之后,根据您所看到的供应情况以及相关评论,您是否具备足够的可见性,能够在2028年实现大幅增长呢?
Hock Tan,总裁、首席执行官兼执行董事
最好的答案是:没错,你说得对。我们确实预计会出现这种迅猛的加速增长——尽管目前没人能预料到它展现出的增速,但我想,我们至少在6个月以上的时间里,已经大致预见到其中很大一部分趋势了。我们很早就开始锁定T-Glass(注:T-glass是一种高端玻璃纤维织物(低热膨胀系数,Low-CTE),由高纯度二氧化硅和氧化铝制成,具有高刚性、超低热膨胀和尺寸稳定性,能有效抑制先进封装中的材料变形和翘曲,是AI服务器芯片封装基板(如ABF载板)的关键材料)的供应——就是大家耳熟能详的那个耳熟能详的T-Glass。我们起步非常早。我们已提前锁定了基板,并且与我们在之前讨论过的那些关键环节上的优质合作伙伴展开了紧密合作。所以,对你问题的回答就是:我们确实是提前做了一些布局和准备,而且我们在这几个关键零部件领域拥有一批非常优秀的合作伙伴。除此之外,我还能说些什么呢?嗯,查理,你还有什么想补充的吗?
查理·卡瓦斯,半导体解决方案总裁
是的。就先做几点简短补充吧。我觉得你对那部分内容的讲解真是棒极了。接下来,还有一项特别重要的内容,正如Hock所提到的:我们为6位客户打造定制化芯片。我们与这些客户建立了深度的战略性多年合作关系。正是凭借这种定制化能力,他们向我们详细分享了未来两到三年、有时甚至四年内的确切预期需求。正因如此,我们才果断采取行动,确保落实Hock所提及的所有关键要素。而要实现这一点,就需要与这些合作伙伴展开投资合作——有时不仅是要扩充产能,更要开发匹配的先进技术与相应产能。因此,我们必须长期锁定这些资源,确保可持续发展。而且,或许正如你所说,我们很可能是首个将相关资源锁定至2028年甚至更久的公司。
本杰明·赖茨斯,梅利斯研究有限责任公司
而且,根据你目前看到的供应情况,28年还能继续增长吗?不好意思,我偷偷插了一句。
查理·卡瓦斯,半导体解决方案总裁
是的。
主持人
我们的下一个问题来自美银证券的维韦克·阿亚先生。
维韦克·阿亚,美国银行证券,研究部
Hock,我想先澄清一下您正在开展的Anthropic项目——1GW,200亿美元中,有多少是用于芯片的?又有多少是用于机柜的?我特别想了解一下,当您提到1000亿美元时,是否区分了芯片与您的机柜级项目?毕竟,仅这一项目明年就预计将实现三倍增长。另外,我的问题是:您的AI业务正从过去那种与单一大型客户建立独家合作关系的模式,转向如今多个客户同时使用多家供应商的格局。那么,你如何在这些多个客户中获得能见度和信心,了解你的市场份额将如何发展,因为他们与整个范围内的云服务提供商等都有这种分散的合作关系?为此,您正在采取哪些措施,以确保在这一多元化、多供应商合作的客户群体中,能够获得稳固的市场可见性并占据合适的市场份额?
Hock Tan,总裁、首席执行官兼执行董事
维韦克,你得明白一点——首先,正如查理刚才非常恰当地指出的,我们的客户数量其实非常有限,确切地说,以我们目前的业务规模和收入水平来看,只有区区6个客户,而且最近这个数字甚至更少。其次,你还得理解,每位客户所花费的金额以及他们所从事项目的重大性。正因如此,我才提出了这样一个概念:Meta拥有MTIA——那是他们专门定制的加速器计划。对Meta而言,也对我在这个领域内的每一位客户来说,这都是一项战略性举措,绝非可有可无的选择。无论从长期、短期还是中期来看,这都是一项极其重要的战略决策。
他们从不犹豫,而且思路非常清晰:每个人都明确地规划着自家定制芯片在大型语言模型(LLM)研发轨迹中的定位,以及如何通过推理技术的开发,将这些LLM真正推向市场。这一点,我们有着极其清晰的洞察力。至于其他涉及GPU、采用新云服务或开展云业务的部分,则都属于事务性操作和可选事项。正如你所敏锐指出的,这确实可能让人感到有些困惑。但请相信我,对我们自己,也对我们的客户而言,这一切都极具战略意义——目标明确、精准聚焦,他们清楚地知道每年究竟要打造多少能力,以及具体要实现哪些关键里程碑。对他们来说,唯一萦绕心头的问题就是:你们能否更快地交付?除此之外,所有其他因素都纯粹是机会主义的考量,可以说是这些企业抓住的纯粹机遇与可选项。因此,整体情况其实非常清晰明了。
维韦克·阿亚,美银证券,研究部
关于澄清,Hock,Anthropic的机架与芯片相比如何?
Hock Tan,总裁、首席执行官兼执行董事
我宁愿不回答那个问题,但我们挺好的。正如克里斯汀所说,我们的资金和利润率都很好。
主持人
我们的下一个问题来自巴克莱银行的汤姆·奥马利。
托马斯·奥马利,巴克莱银行股份有限公司,研究部
我有一个问题给Hock,另一个给查理。Hock,我知道你在前言部分特别注重细节。你提到,客户目前仍在使用直连铜缆,直至400千兆SerDes。你之所以特别强调这一点,尤其是作为CPO领域的领先开拓者,是不是有什么特别的原因呢?另外,关于查理这边,随着你们不断拓展客户群,我想那些与你们合作设计ASIC的客户很可能会采用纵向扩展以太网。不妨聊聊纵向扩展协议,以及你对以太网在这一领域未来发展的看法。
Hock Tan,总裁、首席执行官兼执行董事
好的。不,除非——我只是想强调一点:在联网领域,我们的技术确实独具优势,能够帮助我们的客户,甚至超越客户——包括那些使用通用GPU的客户,而不仅仅是XPUs。也就是说,如果你正致力于训练大型语言模型,或者正在搭建并设计自己的人工智能数据中心,那么你确实需要规模越来越大、覆盖范围越来越广的域或集群。而且,你真正希望尽可能直接地将XPUs彼此连接起来。而实现这一目标的最佳方式,就是采用直连铜缆。这种方式延迟最低、功耗最低,成本也最低。因此,尤其是在纵向扩展的过程中,你应尽可能长期坚持这种做法。
在横向扩展方面,我们早已超越了那个阶段。我们现在用的是光互连,这没问题。但我要说的是,在机架内、在集群领域进行纵向扩展时,你真的应该尽可能多地采用直连铜缆。目前,我们依然基于博通的技术——尤其是XPU与XPU之间,甚至GPU与GPU之间的连接,我们完全可以用铜缆来实现。而且,我们还能不断突破极限,从100G提升到200G,甚至达到400G。如今,我们的SerDes已经能够支持400G速率,足以驱动铜缆在机架内的长距离传输。总之,我想强调的是,其实你并不需要急于去追逐那些所谓的“闪亮新玩意儿”——比如CPO,尽管我们在CPO领域处于领先地位。CPO的真正到来还为时未定,今年可能不会,明年也不一定,但终会水到渠成。查理,你说对吧?
查理·卡瓦斯,半导体解决方案总裁
好的。不,Hock,你说得对极了!关于以太网的问题,随着云技术的兴起,过去二十年来,以太网已成为所有云端环境的事实标准。正如Hock所指出的,回溯到两年前后端网络刚起步时,业界曾就究竟该采用哪种协议来实现所需的低延迟和大规模横向扩展能力展开了一场激烈的争论。当时,也就是大约24个月前,整个行业对此尚无定论。但我们却非常清楚——实际上,我们早就明确知道答案是什么。再次强调,得益于我们与合作伙伴的深度协作,他们已向我们所有人以及整个行业清晰地表明:无论是GPU还是XPU,以太网都是实现大规模横向扩展的不二之选,这一点毋庸置疑!
如今,大家都在热议通过以太网实现横向扩展。那么,说到纵向扩展——没错,就像三四年前在纵向扩展领域发生的情况一样——对此究竟该选择哪种方案呢?我们不断听到并亲眼目睹的一个明确答案就是:以太网!正如大家所知,去年我们已与多家超大规模云服务商以及半导体行业的众多同行共同宣布:以太网纵向扩展正是正确的选择。我们坚信,这一趋势必将成真。时间会证明一切,但目前我们正在进行的许多XPU设计项目,都要求通过以太网实现纵向扩展,而我们非常乐意为此提供支持与助力。
主持人
接下来,我们的下一个问题来自高盛的吉姆·施奈德先生。
詹姆斯·施奈德,高盛集团有限公司,研究部
Hock,很高兴听到您谈到在TPU之外,其他全定制XPU项目的进展情况。展望明年,我们是否可以合理地假设,这些项目主要面向推理应用呢?另外,您能否从定性角度谈谈,与GPU相比,这些XPU在性能或成本上有哪些优势,正是这些优势让客户能够实现如此大规模的预测?
Hock Tan,总裁、首席执行官兼执行董事
谢谢。实际上,我们的大多数客户都是从推理入手的——这主要是因为推理往往是最容易上手的路径,而并非出于其他什么特别的原因。毕竟,进行推理时所需的计算量要少得多。不过,随之而来的问题是:当你可以用专门针对推理优化的定制XPU芯片更高效、更有效地完成任务时,是否真的需要这种通用型的大规模密集矩阵乘法GPU呢?这些XPU芯片不仅性能毫不逊色,甚至可能更好,而且成本更低、功耗也更低。我们发现,许多客户正是从这一点开始的。如今,他们已进入训练阶段。事实上,我们的许多XPU既可用于训练,也可用于推理——顺便一提,这两者之间是可以互换的。一台GPU不仅能用于训练——它在这方面或许更为擅长——同样也能用于推理。
我们看到,我们的XPU同时被用于这两方面。而且这种趋势正在持续发展。与此同时,我们也注意到,那些在前面我所提到的进程中已相当成熟的客户,正以极快的速度迈向完全采用XPU的阶段——他们将开始每年同步研发两款芯片:一款用于训练,另一款用于推理,以实现专门化。为什么呢?因为我们清楚地发现,对于这类玩家——尤其是大型语言模型(LLM)玩家而言,训练环节是为了让您的LLM达到更高水平的智能与“智慧”。太棒了!您已经拥有了一个顶尖或更先进的LLM。现在,您需要将其产品化,而这正是推理环节的使命所在。
嗯,到那时你就可以做出决定了——你已经把模型打造得堪称最佳了。因为如果你等到那时再着手推理产品的落地,至少需要一年时间才能实现产品化,而到那时,说不定已经有人研发出比你的大语言模型更出色的版本了。所以啊,这里其实存在一种信念上的飞跃:当你投入训练,致力于打造下一代超级智能的大语言模型时,必须同步在推理环节进行投资,包括芯片和算力方面的投入。随着我们发现这6位客户在迈向更优质大语言模型的进程中日益成熟,我们的市场前景也正变得越来越明朗。没错,这正是我们所观察到的趋势。目前,这种趋势尚未完全覆盖我们全部6位客户,但绝大多数客户如今都已朝着这个方向迈进。
主持人
请稍等,我们的下一个问题来自道明考恩的乔舒亚·布查勒先生。
乔舒亚·布查勒特,道明考恩,研究部
恭喜您取得这样的成果!我非常感谢您详细说明了针对特定客户的部署预期。我希望您能稍微回顾一下,过去一到两个季度中,可见性发生了怎样的变化,正是这些变化让您有信心向我们提供更详尽的信息。另外,您特别提到,根据那笔协议,2027年OpenAI的用电量将超过1GW,而整个协议到2029年的总用电量将达到10GW。这似乎意味着2028年将迎来一个相当显著的转折点,不知这种理解是否正确?而且,这种规划从一开始就是这样的吗?
Hock Tan,总裁、首席执行官兼执行董事
好的。嗯,没错,正如大家所看到的,我们也都清楚,当前正处在一场生成式人工智能的竞赛之中——其实我本不该用“竞赛”这个词,不如说,这更像是一场少数几家玩家之间的进步较量。我的意思是,这确实是一场竞争:每家公司都在努力打造比其他公司更出色的大型语言模型,并且更加精准地满足特定需求——无论是面向企业、消费者,还是搜索引擎领域,大家都在不断追求更高的水平。而这一切不仅需要训练——训练对于持续改进你的大型语言模型至关重要——还需要推理能力,以便将这些模型产品化并实现商业化变现。而且,我们与其中一些公司合作至今已有两年多时间,随着他们对我们所合作的XPU越来越有信心,相信它们能够达成自己的目标,我们的可见性也日益提升。
当他们逐渐意识到,自己所使用的XPU与软件、所需的算法完美契合时,便愈发确信,这款XPU芯片正是他们所需要的。随着项目的推进,效果也越来越好。而且,随着进展不断深入,我们的可见度也日益提升——正如查理所言,这完全合乎情理。毕竟,我们只有6位同事在负责这项工作。而这6位同事,正如我之前所说,都以极其战略性的视角看待XPU和人工智能。他们并非只着眼于一代产品,而是放眼多代、多年的发展。尽管外界充斥着各种关于现有技术的自大言论,他们却始终秉持长远眼光,思考如何部署与我们共同开发的XPU,如何通过这些XPU打造出越来越出色的大型语言模型,更进一步地,思考如何将这些成果转化为实实在在的商业价值。
因此,我们正是他们战略路线图的一部分。我们并非仅仅处于一种可有可无的境地——比如,我该用GPU吗?我该把它放在云端用吗?毕竟我得花上六个月时间来训练模型。不,我们的参与远不止于此。这些伙伴们所投入的都是长期战略,能成为这样长期路线图的一部分,而非仅仅局限于短期交易,这实在令人振奋。至于刚才那位朋友提出的另一个问题,确实存在不少噪音,它们往往将短期交易与我们业务和产品的长期战略定位混为一谈。总而言之,我认为,我们在XPU领域的业务对我们目前的六位客户而言,都是一项具有战略意义且可持续发展的投资。
主持人
今天问答环节就到这里。接下来,我将把通话交还给Ji Yoo,由他做最后的总结发言。
Ji Yoo,投资者关系总监
谢谢,Sherry。博通目前计划于2026年6月3日星期三市场收盘后公布2026财年第二季度的业绩报告。随后,博通将于太平洋时间下午2:00举行业绩电话会议的公开网络直播。今天的业绩电话会议到此结束。感谢各位的参与。Sherry,你可以结束本次电话会议了。
主持人
今天的节目到此结束。感谢大家的参与。现在您可以断开连接了。


