很精彩,甚至里面关于铜缆、光纤的一句话都导致了相关标的大幅波动,重点内容见标红部分。
Hock Tan总裁、首席执行官兼执行董事
在2026财年第一季度,我们的总营收达到创纪录的193亿美元,同比增长29%,超出预期,这主要得益于人工智能半导体业务超出预期的增长。强劲的营收增长转化为卓越的盈利能力,第一季度合并调整后EBITDA达到创纪录的131亿美元,占营收的68%。这些数据表明,我们的规模持续推动着显著的运营杠杆效应。随着我们定制的人工智能XPU在5家客户中进入下一阶段的部署,我们预计这一增长势头将进一步加速。展望2026财年第二季度,我们预计合并营收约为220亿美元,同比增长47%。
接下来,我将更详细地介绍我们的半导体业务。第一季度,营收创下125亿美元的历史新高,同比增长52%。这一强劲增长主要得益于人工智能半导体业务的强劲表现,该业务同比增长106%至84亿美元,远超预期。第二季度,这一增长势头将进一步增强,我们预计半导体业务营收将达到148亿美元,同比增长76%。人工智能业务的营收增长将显著加速,同比增长140%至107亿美元。此外,我们的定制加速器业务在第一季度也实现了140%的同比增长,这一增长势头将在第二季度延续。我们所有5家客户的定制人工智能加速器项目进展顺利。对于谷歌而言,我们预计在2026年将继续保持增长势头,第七代Ironwood TPU的需求强劲。我们预计在2027年及以后,下一代TPU的需求将更加旺盛。对于 Anthropic 而言,我们在 2026 年 TPU 计算需求达到 1 吉瓦时取得了非常好的开端。预计到 2027 年,这一需求将激增至 3 吉瓦以上。此外,我们的 XPU 产品线也涵盖了 TPU 以外的领域。
与近期分析师的报告相反,Meta 的定制加速器 MTIA 路线图进展顺利,目前已开始发货。事实上,对于下一代 XPU,我们将在 2027 年及以后将计算能力扩展到数吉瓦。对于第四和第五位客户,我们预计今年的出货量将十分强劲,并预计到 2027 年将翻一番以上。此外,我们现在还有第六位客户。我们预计 OpenAI 将于 2027 年大规模部署其第一代 XPU,计算能力将超过 1 吉瓦。我想借此机会强调,我们与这六位客户在开发 AI XPU 方面的合作是深入的、战略性的,并且是多年合作。我们为每一位合作伙伴带来了SerDes、芯片设计、工艺技术、先进封装和网络方面无与伦比的技术,使每位客户都能针对其差异化的 LLM 工作负载实现最佳性能。我们拥有丰富的经验,能够以极高的良率,快速交付这些 XPU 并实现高产量。
除了技术之外,我们还提供多年供货协议,助力客户扩展计算基础设施部署规模。在当前尖端晶圆、高带宽内存和衬底产能受限的情况下,我们仍能确保供货,从而保障合作伙伴关系的持久性。我们已完全确保2026年至2028年这些组件的产能。与我们XPU的强劲前景相一致,人工智能网络的需求正在加速增长。第一季度人工智能网络收入同比增长60%,占人工智能总收入的三分之一。我们预计第二季度人工智能网络业务将进一步加速增长,占人工智能总收入的40%。我们在网络领域的市场份额正在显著提升。让我来详细解释一下。
在横向扩展方面,我们首款上市的 Tomahawk 6 交换机(吞吐量达 100 太比特/秒)以及 200G SerDes 正在满足超大规模数据中心的需求,无论他们今年使用的是 XPU 还是 GPU。随着性能翻倍的下一代 Tomahawk 7 的推出,这一领先优势将在 2027 年进一步扩大。同时,在纵向扩展方面,随着集群规模和客户数量的增长,我们凭借 200G SerDes 的独特优势,能够帮助这些客户继续使用直连铜缆。随着我们在 2028 年升级到 400G SerDes,我们的XPU 客户很可能继续使用直连铜缆。这是一个巨大的优势,因为采用光纤方案成本更高,而且需要消耗更多电力,正如前文所述。【光模块应声下跌】我们对2027 年的前景预期已显著提升。事实上,我们今天已经看到了实现人工智能芯片(仅芯片)收入超过 1000 亿美元的前景,【2025是200亿美金,2026 Q1是84亿美金,这样两年的CAGR高达120%+】而且我们已经确保了实现这一目标所需的供应链。
现在我们来谈谈非人工智能半导体业务。第一季度营收为41亿美元,与去年同期持平,符合预期。企业网络、宽带和服务器存储业务营收同比增长,但被无线业务的季节性下滑所抵消。我们预计第二季度非人工智能半导体业务营收约为41亿美元,同比增长4%。接下来,我想谈谈我们的基础设施软件业务。第一季度基础设施软件业务营收为68亿美元,符合预期,同比增长1%。我们预计第二季度基础设施软件业务营收约为72亿美元,同比增长9%。VMware营收同比增长13%。订单量持续强劲,第一季度合同总额超过92亿美元,年度经常性收入(ARR)同比增长19%。我要强调的是,我们基础设施软件业务的增长反映了我们对基础架构的重视和投入,而且我们的基础设施软件业务并未受到人工智能的冲击。
事实上,VMware Cloud Foundation (VCF) 是数据中心中至关重要的软件层,它将 CPU、GPU、存储和网络集成到一个通用的高性能私有云环境中。作为 AI 软件和物理芯片(硅)之间的永久抽象层,VCF 不可被取代或替代。它使企业能够以硬件本身无法提供的敏捷性,高效地扩展复杂的生成式 AI 工作负载。我们相信,生成式和智能 AI 的增长将带来对 VMware的更多需求,而不是更少。综上所述,我来总结一下2026 年第二季度的情况:我们预计合并收入将同比增长 47%,达到约 220 亿美元;我们预计调整后 EBITDA 将占收入的约 68%。接下来,我将把电话会议交给Kirsten。
Kirsten Spears首席财务官兼首席会计官
谢谢霍克。现在让我进一步介绍一下我们第一季度的财务业绩。本季度合并营收创历史新高,达到193亿美元,同比增长29%。毛利率为77%。合并运营支出为20亿美元,其中研发支出为15亿美元。第一季度营业利润创历史新高,达到128亿美元,同比增长31%。得益于有利的运营杠杆,营业利润率同比增长50个基点,达到66.4%。调整后EBITDA为131亿美元,占营收的68%,高于我们此前67%的预期。
现在我们来详细了解一下两个业务板块。首先是半导体业务。半导体解决方案业务板块的营收创下125亿美元的新高,同比增长52%,主要得益于人工智能的推动。半导体业务营收占本季度总营收的65%。半导体解决方案业务板块的毛利率同比增长30个基点,达到约68%。11亿美元的运营支出反映了对尖端人工智能半导体研发投入的增加,占营收的8%。半导体业务的运营利润率为60%,同比增长260个基点,体现了强劲的运营杠杆效应。
接下来是基础设施软件部分。基础设施软件收入为 68 亿美元,同比增长 1%,占总收入的 35%。本季度基础设施软件的毛利率为 93%,运营费用为 9.79 亿美元。第一季度软件运营利润率同比增长 190 个基点,达到 78%。
接下来是现金流情况。本季度自由现金流为80亿美元,占营收的41%。我们在资本支出方面投入了2.5亿美元。【金额竟然那么少】由于我们持续采购零部件以满足强劲的人工智能需求,第一季度末库存为30亿美元。第一季度库存周转天数为68天,而第四季度为58天,这主要是由于我们预期人工智能半导体市场将加速增长。
关于资本配置。第一季度,我们向股东派发了31亿美元的现金股息,每股普通股现金股息为0.65美元。当季,我们回购了价值78亿美元(约2300万股)的普通股。第一季度,我们通过股息和股票回购共向股东返还了109亿美元。第二季度,我们预计不计潜在股票回购的影响,非GAAP稀释后股份数量约为49.4亿股。第一季度末,我们持有现金142亿美元。今天,我们宣布董事会已批准追加100亿美元用于股票回购计划,该计划有效期至2026年底。
现在进入业绩展望环节。我们预计第二季度合并营收为220亿美元,同比增长47%。其中,半导体营收预计约为148亿美元,同比增长76%。在这148亿美元中,我们预计第二季度人工智能半导体营收为107亿美元,同比增长约140%。基础设施软件营收预计约为72亿美元,同比增长9%。为方便您进行模型构建,我们预计合并毛利率将环比持平,为77%。我们预计第二季度调整后EBITDA约为68%。由于全球最低税的影响以及与2025财年相比收入地域构成的变化,我们预计2026财年第二季度的非GAAP税率约为16.5%。以上是我的发言稿。接线员,请开始提问环节。
问答环节
布莱恩·柯蒂斯·杰弗里斯有限责任公司,研究部
我也想请教两个点:一个澄清,一个提问。
首先是澄清:Hock,关于你提到的‘超过1000亿美元’这个数字。我记得你说的是AI芯片,我想确认一下,你是否在明确区分定制化芯片(ASIC)和网络设备?另外,我不确定整机柜(Rack)业务的营收是如何归类到这个数字里的?
接下来的提问:我认为目前半导体板块面临的最大压力(阴影)在于:你们本季度的AI业务增速大约是两倍,这基本等同于今年云厂商资本支出(CapEx)的增速。考虑到你们对2027年的展望,你应该会是市场份额的领先者。
但目前投资者普遍存在一种悲观情绪,认为超大规模云服务商(Hyperscalers)必须在今年、明年或后年看到投资回报(ROI),否则投入就会缩减。我想请教一下你的看法,你是如何将这种‘投资回报压力’考量进你的长期展望中的?
Hock Tan总裁、首席执行官兼执行董事
布莱恩,关于这一点,我们在过去几个月里观察到、并且现在愈发明显的情况是——这其实不仅仅是指超大规模云服务商(Hyperscalers)。我们的客户仅限于那少数几家巨头。他们中有些是云巨头,有些则不是,但他们都有一个共同点:致力于开发大语言模型(LLM),并将其产品化,构建出各类平台。
这些平台有的用于企业端的代码辅助或智能体 AI(Agentic AI),有的则是我们熟知的消费者订阅服务。无论是生成式 AI 还是智能体 AI,只要是在构建平台的少数几家头部玩家,就是我们的客户。对于这些客户,我们看到他们对用于‘训练’的算力需求持续强劲,这确实是他们长期的刚需。
但真正让我们感到非常有趣、甚至有些惊喜的是:为了将他们最新开发的大模型产品化并实现商业化(变现),‘推理’端产生的需求极为旺盛。这种推理需求正在驱动大量的算力消耗。
这对我们来说是极大的利好,因为这 5 到 6 家核心客户都在走自研定制加速器(ASIC)的道路。不仅如此,他们还在针对这些定制加速器设计自己的网络集群架构。结合过去 6 个月我们听到的各种大动作,我认为需求将继续攀升。
最后,澄清一下你提到的第一个问题:当我预测2027 年营收将远超 1000 亿美元时,我所关注的核心是芯片。无论是XPU(定制算力芯片)、交换机芯片还是 DSP(数字信号处理芯片),我们讨论的都是纯粹的芯片。
哈兰·苏尔,摩根大通公司研究部
祝贺团队取得如此优异的成绩。Hock,最近关于CSP和超大规模数据中心运营商纷纷启动内部XPU、TPU设计项目的消息很多,对吧?我们称之为COT,即客户自有工具。这在ASIC领域并非新鲜事,对吧?我认为博通团队在过去30多年作为ASIC行业领导者的过程中,早已经历过这种COT竞争格局。但这些COT项目鲜有成功的。如今在AI领域,一些COT项目已经上市,但它们的性能至少比你们目前的解决方案低一半,芯片设计复杂度、封装复杂度和IP方面也只有你们的一半。
所以,或许可以问你两个问题。Hock,第一个问题是,鉴于你对明年市场的了解,你认为这些 COT 科研项目会从 Broadcom 手中夺走任何有意义的 TPU 和 XPU 市场份额吗?第二个问题是,从性能复杂度 IP 的角度来看,Broadcom的 TPU 和 XPU 项目比任何 COT 项目领先 12 到 18 个月,Broadcom 团队将如何进一步扩大这一差距?
Hock Tan总裁、首席执行官兼执行董事
嗯,这是一个很好的问题。我特意在开场白中花时间提到,当任何一家超大规模数据中心或LLM开发商试图完全自主地创建所谓的客户自有工具(COT)模型时,他们都会面临巨大的挑战。其中之一是技术,也就是与制造硅芯片相关的技术,特别是用于执行计算的XPU(扩展处理单元),这些芯片对于优化和运行LLM生成的工作负载的训练和推理至关重要。我们刚才提到的技术涉及多个方面。你需要一支顶尖的芯片设计团队。
你需要尖端的、真正尖端的SerDes芯片,非常先进的封装技术,而且同样重要的是,你需要了解如何将它们集群连接起来。我们在硅芯片领域已经从事这项工作20多年了。在当今生成式人工智能领域,如果你作为LLM厂商想要开发自己的芯片,你不能只满足于“足够好”的芯片。你需要最好的芯片,因为你要与其他LLM厂商竞争。最重要的是,你还要与NVIDIA竞争,而NVIDIA绝不会放松警惕。他们每一代都在生产越来越好的芯片。因此,作为一家LLM厂商,如果你想在市场上建立自己的平台,你必须制造出比NVIDIA更好,甚至能与所有其他竞争对手匹敌的芯片。
为此,您确实需要我们的信念,而我们对此深有体会。我们是硅芯片领域的合作伙伴,拥有业内顶尖的技术、知识产权和执行力。毫不夸张地说,我们遥遥领先。在未来很多年里,我们在COT领域都不会遇到竞争对手。竞争终会到来,但我们还有很长的路要走,因为这场竞争仍在继续。我还要补充一点,这是我们独有的优势:当你研发出一款芯片时,你必须迅速将其投入大规模生产,并尽快推向市场。我们在这方面经验丰富。任何人都能在实验室里设计出一款性能良好的芯片。但你能以可承受的良率快速生产10万颗这样的芯片吗?我们很少看到世界上有哪家公司能做到这一点。
Ross Seymore德意志银行研究部
Hock,在你的演讲稿中,你比以往更侧重于网络方面的差异化优势。所以我想问一个短期和一个长期的问题。短期问题是,是什么推动了网络业务在人工智能收入中占比高达40%?长期问题是,这个比例——也就是在超过1000亿美元的收入中——是否会发生变化?你预计在这个业务领域保持怎样的领先地位,无论是横向扩展还是纵向扩展?你在该领域的领先地位是否有助于你的XPU业务,因为你可以同时优化计算和网络方面?
Hock Tan总裁、首席执行官兼执行董事
Ross,让我们先来回答那个相当复杂的提问的第一部分。
没错,在网络领域,尤其是随着新一代 GPU 和 XPU 的面世,我们目前的单通道带宽(SerDes)已经跑到了200 Gbps。我们在大约 9 个月前推出的Tomahawk 6 交换芯片,目前是市场上唯一的选择。超大规模云厂商及其客户都希望为其集群配备顶级网络和最大带宽。因此,市场上这款唯一的102.4 Tbps(100T)级交换机需求极其旺盛,这极大地拉动了业务增长。
再结合光模块领域向1.6T 带宽的架构演进,我们同样是目前全球唯一能提供1.6T DSP(数字信号处理芯片)的厂商。
这种‘王牌组合’(100T 交换机 + 1.6T DSP)使得我们网络组件的增长速度甚至超过了 XPU(定制加速器)的增速,考虑到 XPU 本身的增长已经非常惊人了,这确实非同寻常。
你现在看到的就是这种局面。虽然我认为这种爆发式增长终究会趋于平稳,但我们并没有放慢脚步。正如我所说,2027 年我们将推出下一代Tomahawk 7,性能直接翻倍。届时我们大概率仍会遥遥领先,并继续保持这种势头。
最后回答你的问题:是的,我预计在任何一个季度,AI 网络组件将占据我们总 AI 营收的33% 到 40% 左右。
克里斯托弗·缪斯,坎托·菲茨杰拉德公司研究部
我想了解的是,你们如何看待这样一种趋势:将prefill和decode从GPU生态中拆分出来,以及这对定制芯片需求的影响?你们是否看到GPU与定制芯片之间的相对需求结构可能发生变化?
HockTan总裁、首席执行官兼执行董事
C.J.,我不太确定我完全理解你的问题。你说的disaggregate(拆分)是指什么?
克里斯托弗·缪斯,坎托·菲茨杰拉德公司研究部
好的。比如把prefill的工作负载交给CPX(注:可能指代某种算力核心),而decode由像Groq(注:一种以极速推理著称的ASIC芯片)这样的芯片来处理,形成一种拆分式的架构。在这样的情况下,这是否会对定制芯片与完整GPU体系之间的需求产生压力?
Hock Tan总裁、首席执行官兼执行董事
好的,我明白你的意思了,“disaggregation(拆分)”这个词刚才有点让我困惑。实际上,你真正想问的是:随着工作负载不断演进,AI 加速器(无论是 GPU 还是 XPU)的架构会如何演变。
我们确实正在看到这样的变化。通用 GPU 的“一刀切”模式只能走到一定程度。它当然还能继续使用,因为你仍然可以在上面运行不同类型的工作负载,比如Mixture of Experts(专家混合模型)。不过,如果你希望Mixture of Experts 通过稀疏计算实现非常高的效率——大家也经常提到这一点——那问题就在于GPU 的架构本质上是为密集矩阵乘法(dense matrix multiplication)设计的。
因此,在 GPU 上你可以通过软件内核来实现这些功能,但效率并不如在硅层面直接硬编码实现来得高。如果你把这些能力直接做进芯片里,并把这些XPU 专门设计为更适合 Mixture of Experts 工作负载,性能就会更好。推理(inference)也是同样的道理。
最终带来的结果是:XPU 的设计开始针对特定客户、特定 LLM 工作负载变得越来越定制化。这些设计也开始逐渐偏离传统的标准 GPU 架构。这也是为什么我们一直在说,XPU 最终可能会成为更主流的选择,因为它能提供更大的灵活性,可以根据具体工作负载来做设计——无论是训练还是推理。
就像你刚才说的,可能会出现这样的情况:
- 有的架构更适合做 prefill
- 有的架构更适合做 post-training、强化学习(reinforcement learning)或者 test-time scaling
你可以把TPU——哦不,XPU(口误了)调整优化成适合某一种特定LLM 工作负载的架构。
而我们确实正在看到这种趋势。在我们合作的 5 家客户中,我们都看到了这样的路线图。
蒂莫西·阿库里瑞银投资银行研究部
我有一个关于当你们开始出货这些机架时对毛利率影响的问题。我想了解一下其中的利弊权衡。很明显,这会拉低整体的综合毛利率,但我想知道你们能否给我们一些大致的边界或指引。
看起来这些机架的毛利率大概在45%到50%左右。所以我的问题是:随着这些机架开始出货,我们是否可以认为它会大约把整体毛利率拉低500个基点左右?
另外还有一个问题,Hock:是否存在一个毛利率的底线?也就是说,如果毛利率低于某个水平,你们就不会再继续扩大机架业务?
Hock Tan总裁、首席执行官兼执行董事
很遗憾地告诉你,你可能有点产生幻觉了。我们的毛利率与 Kirsten 报告的数字完全一致。毛利率以及越来越多的 AI 产品上市都不会影响到我们。我们已经实现了理想的良率。我们的成本控制也已经达到一定水平,使得我们在 AI 领域的模型与我们在其他半导体业务领域的模型基本一致。Kirsten?
Kirsten Spears首席财务官兼首席会计官
我同意这个观点。我认为,进一步研究后,即使是针对我上个季度发表的评论,也会发现它对我们整体产品组合的影响实际上微乎其微。所以,我并不担心。
Stacy RasgonBernstein Institutional Services LLC,研究部
我不知道这是问Hock还是Kirsten的,但我想要更深入地了解一下明年远超1000亿美元的数字。我正在尝试计算一下发电量(以吉瓦为单位)。我数了一下,大概有8或9个,其中Anthropic贡献了3个,OpenAI贡献了1个,所以是4个。你说Meta有多个,所以至少有2个。这样算下来是6个。我估计谷歌的规模应该比Meta大,所以至少有3个,总共是9个,然后还有一些其他的。我之前认为你们每吉瓦的内容价值大概在200亿美元左右。我想问的是,我计算的你们计划在2027年交付的发电量(以吉瓦为单位)是否正确?以及,随着交付量的增加,你们每吉瓦的内容价值应该如何计算?也许最终会“远超”1000亿美元。
Hock Tan总裁、首席执行官兼执行董事
Stacy,你的观点非常有趣,我很欣赏这一点。你说得对,应该用吉瓦来衡量,这才是正确的衡量方式,而不是用美元,因为我们就是按吉瓦来卖芯片的。你要明白,我们——取决于我们的LLM客户,我们现在有6个客户——抱歉,不是5个,是6个,是6个——每吉瓦芯片的价格会有所不同,有时甚至差别很大。确实会有差异。但你说得对,它和你说的美元价格相差不远。如果你以2027年的吉瓦为单位来看,我们预计会接近10吉瓦。【每GW200亿美金】
本杰明·雷茨梅利乌斯研究有限责任公司
Hock,很高兴和你交流。我想问一下你刚才提到的关于四个关键组件供应可见性一直到2028年的评论。第一,你们是怎么做到的?因为据我所知,你们可能是第一家把供应展望直接给到2028年的公司。第二,在2027年AI业务出现如此惊人的增长之后,基于你们目前看到的供应情况和这些表述,你们是否已经有足够的可见性,认为2028年仍然能够继续实现相当可观的增长?
Hock Tan总裁、首席执行官兼执行董事
最简单的回答是:是的,你说得没错。我们确实预计会出现这种快速加速的增长。当然,没有人能够准确预见到现在看到的实际增长速度,但我们大概在6 个月之前甚至更早就已经预期到其中相当一部分趋势。我们很早就锁定了T-glass的供应——就是大家一直在讨论的那个“著名的 T-glass”。我们在这方面行动非常早。我们也已经锁定了基板(substrates)供应。此外,对于我们刚才提到的其他组件,我们也一直与非常优秀的合作伙伴紧密合作。所以回答你的问题:一部分来自我们较早的前瞻判断,另一部分来自我们在这些关键组件领域拥有非常好的合作伙伴。我还能补充什么呢?基本就是这些。Charlie,你有什么要补充的吗?
Charlie Kawwas,半导体解决方案公司总裁
是的,我简单补充几点。我认为刚才Hock已经把那部分讲得很好了。另外一个非常重要的方面是,正如Hock所说的,我们为6家客户提供定制芯片。我们与他们建立了非常深入的、多年的战略合作关系。正因为这种定制化能力,他们会与我们分享他们对未来至少2到3年,有时甚至4年的需求预期。正因为如此,我们才会去提前锁定Hock刚才提到的那些关键要素。而在锁定这些资源时,往往需要与这些合作伙伴进行投资合作——有时不仅是增加产能,还需要开发相应的技术以及匹配的产能。因此,我们必须提前几年就把这些资源锁定下来。所以你说得没错,我们很可能是第一家把这些关键资源锁定到2028年甚至更远的公司。
本杰明·雷茨梅利乌斯研究有限责任公司
基于你们目前看到的供应情况,2028年还能继续实现增长吗?不好意思顺便插问一下这个问题。
Charlie Kawwas,半导体解决方案公司总裁
是的。
Vivek Arya,美国银行证券研究部
Hock,我首先想确认一下你们正在为Anthropic做的项目——大约200亿美元、1吉瓦规模、今年的项目。其中有多少是芯片,又有多少是机架(racks)?我只是想理解,当你说1000亿美元的芯片机会时,是否区分芯片和机架级项目,因为单是这个项目据说明年就要增长到三倍。
然后我的问题是,你们的AI业务正在从过去主要依赖一个大客户、并且有某种独家合作关系,转变为现在多个客户、同时使用多个供应商。那么在这种情况下,你们如何获得需求可见性和信心,判断自己在这些客户中的份额会如何发展?因为他们在不同云服务商以及不同供应商之间的合作非常分散。所以你们是如何确保在这种多供应商、分散合作的客户体系中,依然能够保持清晰的需求可见性和合理的市场份额?
Hock Tan总裁、首席执行官兼执行董事
Vivek,你需要理解一点。首先,正如Charlie刚才讲得很清楚的,我们实际上客户数量非常少。准确来说,真正带来我们现在这些规模收入的客户只有6家。而在不久之前,其实还更少。
第二,你还需要理解的是,这些客户各自投入的资金规模以及他们所从事事情的关键性。这也是为什么我刚才提到Meta的MTIA项目,那是他们的定制加速器计划。对他们来说,就像对我们所有这些客户一样,这是一项战略性布局,而不是可选项。无论是长期、中期还是短期,这件事对他们来说都极其战略性。
他们不会停下来,而且每一家都非常清楚:他们希望把定制芯片放在LLM发展轨迹中的什么位置,以及在将这些LLM产品化、构建推理体系的过程中,定制芯片应该处于什么角色。在这一部分上,我们有非常清晰的可见性。
至于其他部分,比如GPU、使用新的云资源、或者云业务相关的东西,这些更多是交易性的、机会性的选择。所以你指出的一点其实很对,从外部看起来确实会很混乱。但相信我,对我们来说不是这样,对我们的这些客户来说也不是。他们的策略非常清晰、非常有针对性,也非常清楚自己在做什么,以及每一年要建设多少算力能力。
他们唯一会问的问题其实只有一个:能不能做得更快?除此之外,一切都是围绕既定路线图的战略性、目标明确的投入。你看到的其他组合,在我看来更多只是机会性的选择。所以整体其实是非常清晰的。
Vivek Arya,美国银行证券研究部
那关于刚才的确认问题,Hock,Anthropic项目里机架和芯片的比例?
Hock Tan总裁、首席执行官兼执行董事
这个我不太方便回答。不过可以说的是,正如Kirsten刚才提到的,在收入规模和利润率方面,我们都很满意。
Thomas O'Malley,巴克莱银行有限公司,研究部
我有一个问题给 Hock,一个问题给 Charlie。Hock,我知道你在开场陈述里提到的内容通常都非常具体、非常谨慎,你特别指出客户在400G SerDes之前仍然使用直连铜缆。你特意提到这一点是否有特别的原因?尤其考虑到你们在CPO领域其实是领先的先行者。
另外给 Charlie 的问题是,随着你们增加更多客户,我想那些和你们一起设计ASIC 的客户应该会使用scale-up Ethernet。能否谈谈scale-up 的协议,以及你们如何看待Ethernet 在这方面的发展?
Hock Tan总裁、首席执行官兼执行董事
好的。没有什么特别的原因。我只是想强调,在网络技术方面,我们的技术确实让我们处于非常独特的定位,不仅能够帮助我们的客户,甚至也能帮助那些使用通用GPU的客户,而不仅仅是使用XPU的客户。
如果你在构建LLM、建设自己的AI数据中心,并进行系统架构设计,你实际上会希望拥有越来越大的计算域或集群。而且在可能的情况下,你会希望XPU与XPU之间直接连接。
实现这一点的最佳方式就是使用直连铜缆。这种方式具有最低的延迟、最低的功耗和最低的成本。因此在scale-up场景下,你会希望尽可能长时间地继续使用铜缆连接。
在scale-out场景中,我们已经超出了这个范围,需要使用光互连,这没有问题。但我现在谈的是在机架内部或集群域内的scale-up。在这种情况下,你确实希望尽可能长时间地使用直连铜缆。
凭借Broadcom的技术——特别是在XPU到XPU,甚至GPU到GPU的连接方面——我们仍然可以使用铜缆,并把能力从100G提升到200G,甚至400G。我们现在已经有400GSerDes,可以在机架内部实现铜缆连接所需的距离。
我想表达的核心意思是:你并不需要马上转向那些看起来很炫目的新技术,比如CPO。即便我们自己也是CPO的领先厂商,CPO也会在合适的时间到来,但不是今年,可能也不是明年,而是在它合适的时候。【光模块double kill】Charlie?
Charlie Kawwas,半导体解决方案公司总裁
是的,说得很好,Hock。关于Ethernet的问题,在云计算诞生之后,Ethernet在过去20年里一直是所有云平台的事实标准。
如果看后端网络的发展,正如Hock所说,大约两年前,行业曾经就一个问题展开激烈争论:在scale-out网络中,究竟应该使用什么协议,才能实现所需要的低延迟和大规模扩展能力。当时,整个行业其实并不确定答案。
但我们非常确定。实际上我们一直非常清楚答案是什么。正因为我们与合作伙伴有非常深入的合作关系,他们也向我们以及整个行业——无论是GPU还是XPU生态——明确表示:Ethernet将是scale-out的首选方案。
现在大家都在讨论使用Ethernet来做scale-out。
而当谈到scale-up时,就像三四年前scale-out所经历的情况一样,现在行业又在讨论:scale-up的正确技术路径是什么。
我们持续听到、也持续看到的答案是:Ethernet。
正如你所知道的,去年我们已经与多家超大规模云厂商以及半导体行业中的许多同行一起宣布:Ethernet scale-up是正确的方向。这也是我们认为未来会发生的事情。当然,时间会证明这一点。
但现在很多我们正在设计的XPU,客户都在要求通过Ethernet来实现scale-up,而我们也非常乐意支持这一点。
詹姆斯·施耐德高盛集团研究部
Hock,很高兴听到您讨论除TPU之外的其他全定制XPU项目的进展。展望明年,我们是否可以假设这些项目主要面向推理应用?此外,您能否定性地谈谈相对于GPU的性能或成本优势,这些优势如何帮助客户进行如此大规模的预测?
Hock Tan总裁、首席执行官兼执行董事
谢谢。我们的大多数客户一开始都是从推理入手,主要是因为这通常是最容易开始的一条路径。这并不是因为别的原因,而是因为做推理时所需的计算量更少。同时也会产生一个问题:当你做推理时,是否真的需要那种通用型、以大规模密集矩阵乘法为核心的GPU?还是可以用专门用于推理的定制硅XPU更高效地完成同样的工作,而且成本更低、功耗更低?我们看到很多客户正是从这一点开始的。
但现在,他们也已经进入训练阶段,而且我们的很多XPU同时被用于训练和推理。顺便说一句,它们其实是可以互换使用的。就像GPU不仅可以用于训练(也许它们在这方面更合适),也同样可以用于推理。
我们看到的是,我们的XPU正在同时用于这两种场景。但与此同时,我们也看到一个非常快速的发展趋势:对于那些在我刚才提到的发展路径上已经更加成熟的客户来说,他们开始每年同时开发两款芯片——一款用于训练,一款用于推理,并进行专门化设计。
为什么会这样?因为我们非常清楚地看到,对于这些LLM玩家来说,他们通过训练来让LLM获得更高水平的智能和能力。很好,你通过训练得到了一个最先进甚至更领先的LLM。但接下来你必须把它产品化,也就是进入推理阶段。
这时候就会出现一个问题:假如你在模型训练完成之后才开始做推理产品化,那么至少需要一年时间才能完成产品化。而在这一年时间里,很可能已经有别人训练出了比你更好的LLM。
因此这里需要一种“信念式的投入”:当你在训练下一代更强大的LLM时,你必须同时在推理方面进行投资,无论是在芯片设计还是在算力容量方面。
正因为如此,当我们看到这6家客户在构建更先进LLM的过程中逐渐成熟时,我们的需求可见性也在变得越来越清晰。所以,是的,这确实是我们看到的趋势。当然,这种情况还没有发生在全部6家客户身上,但我们已经看到其中的大多数正在朝这个方向发展。
Joshua Buchalter,TD Cowen,研究部
恭喜您取得这样的成绩。非常感谢您详细阐述了针对特定客户的部署预期。我希望您能谈谈过去一到两个季度以来,市场前景的变化如何让您更有信心提供更多细节。另外,您提到OpenAI在2027年的装机容量将超过1吉瓦。考虑到该协议涵盖2029年之前的10吉瓦装机容量,我猜想这意味着2028年会出现一个相当明显的增长点。我的理解是否正确?这是否一直是你们的计划?
Hock Tan总裁、首席执行官兼执行董事
是的。正如大家所看到的、我们也都知道的,在当前这场生成式AI的发展过程中——我其实不太想用“竞赛(race)”这个词,不如说是我们看到的几家参与者之间的一种发展演进(progression)。当然,这本质上仍然是一种竞争,每一家都在努力打造比其他人更好的LLM,并且让模型更适合特定用途,无论是企业应用、消费者应用,还是搜索场景。每一家都在不断地推进这一点。
而这一切不仅需要训练——训练对于不断提升LLM模型当然非常重要——同时也需要推理,因为只有通过推理才能实现LLM的产品化和商业化。
由于我们已经与其中一些客户合作了不止两年,我们对需求的可见性正在变得越来越好。随着时间推移,这些客户对他们与我们一起开发的XPU的信心也在不断增强,因为这些芯片正在逐渐达到他们最初希望实现的目标。
当他们逐渐确信:他们与我们一起开发的XPU,配合相应的软件和算法,确实能够满足他们的需求,并且表现越来越好时,我们也就获得了更清晰的业务可见性。正如Charlie刚才非常准确地总结的那样。
因为归根结底,我们实际上只需要与6家客户合作。而这6家客户,正如我之前说的,都是以一种非常战略性的方式来看待XPU和AI的。他们不会只看单一代产品,而是会规划多代产品、跨越多年的路线图。
尽管市场上有很多夸张的声音和噪音,谈论各种各样的技术机会,但这些客户在思考如何部署与我们共同开发的XPU时,是以非常长期的视角来规划的——他们考虑的是如何利用这些XPU来不断打造更好的LLM,以及更重要的,如何实现商业化变现。
因此,我们实际上是他们战略路线图的一部分。我们并不是一种可选项,不是那种“我要不要用GPU?要不要用云来训练6个月?”这样的临时选择。事情远不止如此。这些客户所做的投资都是长期性的投资。
能够成为他们长期战略路线图的一部分,而不是参与一些短期交易性的项目,这是非常重要的。
市场上确实有很多噪音。正如我之前回答一个问题时提到的,很多讨论其实是在把短期的交易性需求,和我们业务中长期的战略定位混在一起。
总的来说,我认为,我们在XPU领域的业务,对于目前这6家客户来说,是一项战略性、可持续的长期合作机会。


