推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  带式称重给煤机  减速机型号  减速机  链式给煤机  履带  无级变速机 

博通2026财年第一季度财报电话会议全文

   日期:2026-03-05 07:22:33     来源:网络整理    作者:本站编辑    评论:0    
博通2026财年第一季度财报电话会议全文

喜欢本公众号的话可以点下面关注,每天会更新多条热门研报原文;只添加关注可能收不到及时推送,需要及时收到的朋友可以星标公众号!

完整原文已经发在知识星球,欢迎加入

AI半导体业务驱动了创纪录的财务表现与强劲增长。 博通在2026财年第一季度实现了创纪录的193亿美元总营收,同比增长29%。这一非凡表现主要由AI半导体业务驱动,该板块营收同比飙升106%,达到84亿美元,远超预期。凭借强大的运营杠杆效应,第一季度调整后的EBITDA达到了创纪录的131亿美元,占总营收的68%。公司预计这种强劲势头将继续加速,并指引第二季度合并营收达到220亿美元(同比增长47%),其中AI半导体营收预计将达到107亿美元,同比大幅增长140%。

定制AI加速器(XPU)需求呈现深度、长期的战略性爆发。 博通的定制硅片业务正处于高速发展期,客户群体已扩大至六家,其中包括新加入的OpenAI。这六家大客户(包括谷歌、Anthropic、Meta、OpenAI等)将开发XPU视为极其关键的战略部署,而非短期的交易性选择,他们着眼于多代产品和多年的长远规划。例如,Anthropic对TPU计算能力的需求预计将在2027年激增至超过3吉瓦,而OpenAI也将在同年大规模部署超过1吉瓦的计算能力。基于这种高确定性的需求,博通预计到2027年,仅来自AI芯片的营收就将远超1000亿美元,总出货量将接近10吉瓦。

AI工作负载的演进促使芯片设计向“训练与推理专用化”方向发展。 随着大语言模型(LLM)的复杂化,“一刀切”的通用GPU在处理特定工作负载(如稀疏专家混合模型)时效率受限。博通的核心观点是,定制化的XPU最终将成为客户的首选,因为它允许为特定的工作负载量身定制架构,提供更低的成本和功耗。博通观察到,技术成熟的客户正在走向每年同时开发两款专用芯片的路线——一款专门用于模型训练,另一款专门针对推理进行产品化。这种“兵分两路”的策略是为了确保在完成模型训练后,能立即用最高效的推理芯片将其商业化,从而抢占上市时间。

网络连接技术(以太网与直接附加铜缆)是AI集群扩张的绝对核心。 随着AI芯片算力的提升,网络组件在博通AI总营收中的占比快速上升,预计第二季度将从第一季度的三分之一提升至40%。

  • 在横向扩展(Scale-out)方面:
     业界已明确以太网是首选协议。博通率先上市的100Tbps Tomahawk 6交换机面临着巨大的市场需求,公司计划在2027年推出性能翻倍的Tomahawk 7,以持续拉大领先优势。
  • 在纵向扩展(Scale-up)方面:
     博通强调,在机架内的集群域中,应该尽可能长时间地使用直接附加铜缆(DAC)来直接连接XPU或GPU,因为与光学方案相比,铜缆具有最低的延迟、最低的功耗和成本优势。目前博通的技术已经能通过铜缆驱动400G的传输速率。

博通具备极高的技术护城河,并已提前锁定长期的供应链产能。 针对市场上关于云服务商尝试完全自研芯片(即客户自有工具 COT 模式)的讨论,博通认为这面临极其艰巨的挑战。要在生成式AI竞赛中立足,企业不能只做“足够好”的芯片,必须做出能与英伟达等巨头抗衡的“最好”的芯片。这需要顶尖的设计团队、先进封装技术以及网络集群能力,同时还必须具备低成本、高良率快速量产的经验,而这正是博通难以被替代的核心优势。此外,依托与客户深度的多年期合作,博通已经提前锁定了2026年至2028年的关键组件产能(包括前沿晶圆、高带宽内存、基板等),成为了业内首批确保到2028年及以后供应能力的公司。

AI并未颠覆基础设施软件,反而创造了增量需求。 尽管硬件业务光芒夺目,但博通的基础设施软件(包含VMware)依然稳健增长。博通认为其软件业务不仅没有被AI颠覆,反而因AI受益。VMware Cloud Foundation (VCF) 作为数据中心里连接物理硬件与AI软件的不可或缺的抽象层,无法被取代。它能提供单纯依靠硬件无法实现的敏捷性,帮助企业有效扩展复杂的生成式AI工作负载,因此生成式AI的发展将带来对VMware更多的需求。

内容摘要

博通(Broadcom)2026财年第一季度财报电话会议报告了创纪录的财务表现。第一季度合并总营收达到193亿美元,同比增长29%,主要得益于AI半导体业务强劲需求的驱动(该业务营收同比增长106%至84亿美元)。调整后的EBITDA达到创纪录的131亿美元,占营收的68%。

在半导体业务方面,由于公司的六个主要客户(包括谷歌、Meta及新加入的OpenAI等)在定制AI加速器(XPU)上的持续加码,业务势头预计将在第二季度进一步加速,AI芯片收入占比预计大幅增加。公司预计2027年仅来自AI芯片的营收就将远超1000亿美元,并且已经确保了到2028年的关键供应链产能。在网络组件层面,首发上市的100Tbps Tomahawk 6交换机等产品使得AI网络营收在AI总营收中的占比快速提升,第二季度预计将达到40%。

基础设施软件部门(含VMware)表现稳健,VMware合同预订量强劲。公司指出AI并未颠覆软件业务,反而生成式AI正在创造对VMware云平台的更多需求。公司指引第二季度合并营收将加速至约220亿美元,同比增长47%。管理层在问答环节深入强调了其在定制硅片领域的绝对技术优势、以太网在横向扩展和纵向扩展中的关键地位,以及从模型训练向推理端演进带来的强劲持续性需求。


会议记录

Hock Tan感谢大家今天参加我们的会议。在我们的2026财年第一季度,总营收达到了创纪录的193亿美元,同比增长29%,并超出了我们的指导预期。这主要得益于AI半导体业务好于预期的增长。强劲的营收转化为卓越的盈利能力,第一季度合并调整后EBITDA达到创纪录的131亿美元,占营收的68%。这些数字表明我们的规模继续推动着显著的运营杠杆。现在,随着定制AI XPU在我们的五个客户中进入下一阶段的部署,我们预计这种势头将加速。展望下个季度即2026财年第二季度,我们预计合并营收约为220亿美元,同比增长47%。

现在让我提供半导体业务的更多细节。第一季度营收达到创纪录的125亿美元,同比增长加速至52%。这一强劲增长受到AI半导体营收的驱动,该项营收同比增长106%至84亿美元,远超我们的预期。在第二季度,这种势头将加速,我们预计半导体营收将达到148亿美元,同比增长76%。其驱动力是AI营收的增长,该部分营收将急剧加速,同比增长140%,达到107亿美元。我们的定制加速器业务在第一季度同比增长了140%,这一势头在第二季度仍将持续。涵盖所有五个客户的定制AI加速器的产量爬坡进展非常顺利。

对于谷歌,我们继续保持2026年的增长轨迹,对第七代Ironwood TPU有着强劲的需求。在2027年及以后,我们预计下一代TPU的需求会更加强劲。对于Anthropic,我们在2026年取得了非常好的开局,提供了1吉瓦的TPU计算能力。对于2027年,这一需求预计将激增至超过3吉瓦的计算能力。我应该补充一下,我们的XPU专营权不仅仅局限于TPU。与近期分析师报告相反,Meta的定制加速器MTIA路线图依然充满活力。我们现在正在出货。事实上,对于下一代XPU,我们将在2027年及以后扩大到多个吉瓦的规模。综上所述,对于第四和第五个客户,我们今年看到了强劲的出货量,并预计在2027年将翻倍以上。我们现在还有了第六个客户,我们预计OpenAI将在2027年大规模部署他们的第一代XPU,计算能力超过1吉瓦。

让我花点时间强调一下,我们与这六个客户开发AI XPU的合作是深度的、战略性的且长期的。我们为这些伙伴关系带来了无与伦比的技术和服务、芯片设计、工艺技术、先进封装和网络技术,以使这些客户能够为其差异化的大语言模型工作负载实现最佳性能。我们有着在加速上市时间的同时高产量交付这些XPU的记录,并且良率极高。除了技术之外,随着我们的客户扩大其计算基础设施的部署,我们还提供多年期供应协议。在目前前沿晶圆、高带宽内存和基板产能受限的时期,我们保证供应的能力确保了合作的持久性。并且我们已经完全确保了2026年至2028年这些组件的产能。

与我们的XPU强劲前景相一致,AI网络的需求正在加速。第一季度AI网络营收同比增长60%,占AI总营收的三分之一。在第二季度,我们预计AI网络将大幅加速,并增长到占AI总营收的40%。我们在网络领域的份额显然正在增加。让我解释一下。在横向扩展方面,我们率先上市的100Tbps Tomahawk 6交换机以及我们的200G SerDes正在捕获来自超大规模计算客户的需求,无论他们今年使用XPU还是GPU。这一领先优势将在2027年随着我们下一代性能翻倍的Tomahawk 7的推出而进一步扩大。

与此同时,在纵向扩展方面,随着客户和集群规模的扩大,我们在协助客户方面处于独特的有利地位。到2028年,我们的XPU客户可能会继续停留在直接附加铜缆上,这是一个巨大的优势,因为转向光学的替代方案更昂贵且需要更多的功耗。综合以上因素,我们在2027年的能见度有了极大的提升。事实上,今天我们有信心在2027年实现仅仅来自芯片的AI营收超过1000亿美元。

我们还确保了实现这一目标所需的供应链。现在转向非AI半导体,第一季度营收为41亿美元,同比持平,符合我们的指引。企业网络、宽带、服务器存储营收同比增长,被无线业务的季节性下降所抵消。在第二季度,我们预测非AI半导体营收约为41亿美元,同比增长4%。现在让我谈谈我们的基础设施软件部门。第一季度基础设施软件营收为68亿美元,符合指引,同比增长1%。对于第二季度,我们预测基础设施软件营收约为72亿美元,同比增长9%。VMware营收同比增长13%。预订量继续保持强劲,第一季度预订的总合同价值超过92亿美元,维持了19%的年度经常性收入增长。

让我强调一下,我们基础设施软件业务的增长反映了我们对基础基础设施的专注和投资,我们的基础设施软件没有被AI颠覆。事实上,VMware Cloud Foundation是数据中心中必不可少的软件层,它将CPU、GPU、存储和网络集成到一个共同的高性能私有云环境中。作为AI软件和物理芯片之间的永久抽象层,VCF无法被去中介化或取代。事实上,它允许企业以单独依靠硬件无法提供的敏捷性有效地扩展复杂的生成式AI工作负载。我们有信心生成式AI和代理式AI的增长将创造对VMware更多的需求,而不是更少。总而言之,在第二季度我们预计合并营收增长将加速至47%,达到约220亿美元。我们预计调整后EBITDA将约占营收的68%。接下来,我把电话交接给Kirsten。

Kirsten Spears谢谢Hock。让我提供Q1财务表现的更多细节。该季度合并营收为创纪录的193亿美元,同比增长29%。季度毛利率为营收的77%。合并营业费用为20亿美元,其中15亿美元用于研发。Q1营业利润创下128亿美元的纪录,同比增长31%。受惠于有利的运营杠杆,营业利润率同比增长50个基点至66.4%。调整后的EBITDA为131亿美元,即占营收的68%,高于我们67%的指引。由于AI的驱动,半导体解决方案部门的营收创下125亿美元的纪录,增长加速至同比增长52%。半导体营收占本季度总营收的65%。半导体解决方案部门的毛利率同比增长30个基点至约68%。营业费用为11亿美元,反映了对前沿AI半导体的研发投资增加,占营收的8%。半导体营业利润率为60%,同比增长260个基点,体现了强大的运营杠杆。

现在转向基础设施软件。基础设施软件营收为68亿美元,同比增长1%,占总营收的35%。本季度基础设施软件的毛利率为93%,营业费用为9.79亿美元。Q1软件营业利润率同比增长190个基点至78%。转向现金流。本季度的自由现金流为80亿美元,占营收的41%。我们的资本支出为2.5亿美元。第一季度末我们的库存为30亿美元,因为我们继续确保零部件供应以支持强劲的AI需求。预期AI半导体将加速增长,Q1的库存周转天数为68天,而Q4为58天。

资本分配方面,在第一季度,我们基于每股0.65美元的普通股季度现金股息,向股东支付了31亿美元的现金股息。在本季度,我们回购了78亿美元,即约2300万股普通股。第一季度我们通过股息和股票回购共向股东返还了109亿美元。在第二季度,我们预计非公认会计准则稀释后的股份数约为49.4亿股,不包括潜在股票回购的影响。第一季度末我们拥有142亿美元的现金。今天我们宣布董事会已授权为我们的股票回购计划额外增加100亿美元,有效期至2026日历年年底。

现在转向指引。我们对第二季度的指引是合并营收为220亿美元,同比增长47%。我们预测半导体营收约为148亿美元,同比增长76%。在其中,我们预计Q2 AI半导体营收为107亿美元,同比增长约140%。我们预计基础设施软件营收约为72亿美元,同比增长9%。为了你们建模的需要,我们预计合并毛利率将环比持平在77%。我们预计Q2调整后EBITDA约为68%。由于全球最低税率的影响以及与25财年相比的收入地理混合变化,我们预计2026财年第二季度的非公认会计准则税率约为16.5%。我的讲话到此结束。话务员,请开放提问环节。

Blaine Curtis下午好,感谢接受我的提问。我想澄清关于1000亿美元以上AI芯片的问题,我只是想确保你区分了ASIC和网络,不知道机架收入如何算在内。另一个问题是,最大的悬念在于云厂商资本支出今年实现翻倍增长,鉴于你对2027年的展望,你们应该在获得市场份额。投资者的悲观情绪认为超大规模计算厂商需要在这两年获得投资回报率,我想听听您的看法,您在预测中是如何考虑这一点的。

Hock Tan我们过去几个月看到的是,并且这一趋势愈发明显,我们的客户群体局限于少数几家公司。他们中有些是超大规模云厂商,有些不是,但他们都有一个共同点,那就是创建大语言模型将其产品化,并生成面向企业消费或消费者订阅的平台。这就是我们的客户。对于这些客户,我们看到对用于训练的计算能力需求越来越强劲,这是他们持续需要的。但让我们感到非常有趣和惊讶的是,推理的需求极大,这是为了将他们创建的最新模型产品化并实现变现。推理驱动了大量的计算能力需求。这对我们来说是个好消息,因为这五、六个客户正在创建他们自己的定制加速器,并且他们还设计了自己的网络集群架构来连接这些定制加速器。

正如过去六个月的公告所见,我们认为需求将继续回升。Blaine,澄清一下你问题的第一部分,当我说我们在2027年的营收将远超1000亿美元时,我所关注的是这些几乎全部基于芯片的收入,无论是XPU、交换机芯片还是DSP,我们谈论的都是硅片内容。

Harlan Sur下午好,感谢接受提问,并祝贺团队取得了强劲的业绩。Hock,有很多关于云服务提供商和超大规模云厂商开始其内部XPU设计的讨论,我们称之为客户自有工具(COT)模型。这并不是什么新鲜事,Broadcom在这个行业里经历了三十年的COT竞争动态。历史上很少有COT倡议能取得成功。现在有些此类项目进入市场,但看起来性能比你们当前产品低两倍,设计和封装复杂性也相差甚远。我的问题是,根据你们的能见度,这种COT项目是否会从Broadcom夺走任何实质性的市场份额?第二个问题给Hock或Charlie,你们如何在技术上继续拉大这一12到18个月的领先差距?

Hock Tan这是一个好问题。我之所以在开场白中特别指出这一点,是因为当任何超大规模云厂商或LLM开发者试图通过客户自有工具模式完全实现自给自足时,他们面临着巨大的挑战。首先是技术挑战,涉及到制造硅芯片特别是XPU的技术。这种技术来自多个维度,你需要周围最好的芯片设计团队,需要真正前沿的先进封装技术,而且同样重要的是,你需要懂得如何将集群网络化。在硅片领域我们已经做这个超过20年了。如今在生成式AI这个特定领域,如果你作为一个LLM玩家想自己做芯片,你承担不起一颗只是“足够好”的芯片。你需要周围最好的芯片,因为你要与其他LLM玩家竞争。最重要的是,你还要与英伟达竞争,他们绝不会放松警惕,每一代都在生产越来越好的芯片。所以,为了在世界上建立你的平台,你必须制造出不仅能与英伟达竞争,还能与所有其他平台玩家竞争的芯片。

这就需要拥有最好技术、IP和执行力的硅片合作伙伴。我们可以毫不谦虚地说,我们遥遥领先,且在未来很多年内我们在客户自有工具方面不会看到竞争。它最终会到来,但我们还有很长的路要走,因为这场竞赛仍在继续。我想补充一点对我们尤为独特的优势:当你设计出芯片时,你必须迅速让它投入大规模生产。上市时间极其重要,而我们在这方面非常有经验。任何人都可以在实验室里设计出一块运行良好的芯片,但是你能以你可以承受的成本和良率迅速生产出十万个这种芯片吗?我们没有看到世界上有太多参与者能做到这一点。

Charlie Kawas你总结得非常好,Hock。

Ross Seymore谢谢。Hock,你在讲话中比过去更多地倾向于网络差异化。短期来看,是什么驱动网络收入占比提升至40%?长期来看,在超过1000亿美元的收入中,这个比例会改变吗?你们在横向和纵向扩展方面的领先地位是否通过计算和网络端的优化帮助了你们的XPU业务?

Hock Tan让我们先回答你问题的第一部分,Ross。是的,在网络方面,特别是随着新一代GPU和XPU的出现,带宽正在以200G的速度运行。我们在大约九个月前推出的Tomahawk 6,目前是市面上唯一的一款,而我们的客户及超大规模计算厂商希望使用最好的网络和最大的带宽来运行他们的集群。因此,我们看到对这款市面上唯一100Tbps交换机的巨大需求。这驱动了大量的需求。再加上使用1.6T的光学收发器进行横向扩展以匹配带宽,我们再次成为唯一在这个领域做1.6T DSP的公司。这种组合正在推动我们的网络组件甚至比XPU增长得更快,这已经非常引人注目了。我们并没有放慢步伐,正如我所说,2027年我们将推出下一代Tomahawk 7,性能提升一倍。回到你的问题,是的,我预计网络组件在我们任何季度的AI总营收占比最终将在33%到40%之间波动。

CJ Muse下午好,谢谢接受我的提问。我很好奇,你们如何看待从GPU生态系统中将预填充(pre-fill)和解码(decode)解耦的趋势,以及这对定制硅片需求的影响?你们有没有看到定制芯片与通用GPU之间相对组合的潜在变化?

Hock Tan解耦这个词让我有点困惑。实际上,你是在问AI加速器(无论是GPU还是XPU)的架构如何随着工作负载的演变而演变。这也是我们特别关注到的。一刀切的通用GPU只能走这么远。虽然它依然可以运行不同的工作负载,比如运行稀疏专家混合模型。但在为密集矩阵乘法设计的GPU中,你必须通过软件内核来完成,这不如将其硬编码到硅片中,也就是设计专门的XPU高效。这就导致XPU的设计变得越来越针对我们特定LLM客户的特定工作负载进行定制。这种设计开始偏离传统的标准GPU设计。正如我们之前一直指出的,XPU最终会成为首选,因为它允许灵活地设计专门针对特定工作负载的芯片,比如一个用于训练,一个用于推理。你可以将你的TPU或XPU调整为适合你想要的特定类型工作负载。我们认为这是我们所有五个客户的路线图趋势。

Timothy Arcuri非常感谢。我有个关于毛利率变化的问题。随着你们开始出货机架,这会拉低整体混合毛利率吗?看起来机架的毛利率大概在45%到50%,我们是否应该认为它会拉低500个基点的毛利率?Hock,是不是有一个底线利润率,低于这个你们就不愿接更多的机架业务?

Hock Tan我不得不说你可能产生幻觉了。我们的毛利率稳固在Kirsten报告的水平上。我们不会因为更多AI产品出货而受到毛利率的影响。我们的良率和成本已经达到了这样的程度,即我们在AI领域的业务模型将与我们半导体业务其余部分的模型保持一致。

Kirsten Spears我同意这点。进一步研究发现,相对于我们的整体组合,该影响实际上根本不大。所以我不会担心这个。

Stacy Rasgon大家好,谢谢接受提问。我想深入了解明年远超1000亿美元的预测。我试着计算千兆瓦数量。Anthropic有3个,OpenAI有1个,这就是4个。你说Meta有多个,至少算2个,这样就到了6个。谷歌应该比Meta更大,算至少3个。这就是9个。我记得你们每千兆瓦的含量大约在200亿美元的范围内。我想问的是,我对你们在2027年计划出货的千兆瓦数学计算正确吗?随着出货的进行,我应该如何看待每千兆瓦的价值?

Hock TanStacy,你的视角很有趣,我很佩服你这一点。你确实可以按千兆瓦而不是金额来看待,因为这正是我们销售芯片的方式。你要明白,根据我们目前六个LLM客户的具体情况,每千兆瓦的芯片美元价值会有所不同,有时差异相当显著。但你是对的,它与你谈论的数字相差不远。如果你按千兆瓦计算,在2027年我们的出货量将接近10千兆瓦。

Ben Reitzes感谢,很高兴与您交流。想问关于对到2028年这四个主要组件的供应能见度的问题。首先,你们是如何做到的?可能是第一家把计划排到2028年的公司。其次,在2027年AI业务实现惊人的增长后,根据你们所看到的供应情况,是否有足够的能见度在2028年实现大幅增长?

Hock Tan最好的回答是,是的,你说得对。我们预见到了这种急剧加速的增长。虽然没人能准确预测增长的具体速度,但我们很早就预见到了很大一部分需求。我们非常早地锁定了玻璃基板等组件产能,并与我们优秀的合作伙伴一起处理了其余所需的要素。所以答案是,这源于早期预测以及拥有出色的合作伙伴。Charlie,你要补充吗?

Charlie Kawas正如Hock所说,我们为六个客户构建定制硅片,并与他们有深度的战略性多年参与。基于这种定制能力,他们会与我们分享未来两到三年,有时甚至是四年的确切预期。这就是为什么我们去确保Hock谈到的所有要素的原因。当我们去确保这些产能时,需要与这些合作伙伴一起投资,有时不仅是开发更多产能,还涉及正确的技术。所以我们必须确保未来多年的供应,你没说错,我们可能是第一家确保到2028年及以后产能的公司。

Hock Tan关于在看到供应情况后能否在2028年实现增长,是的。

Vivek Arya谢谢接受提问。Hock,我想先澄清你们在做的Anthropic项目,当你提到芯片收入达1000亿时,这其中芯片与机架系统各占多少?另一个问题是,你们的AI业务正从单一客户向多个使用不同供应商的客户过渡。在一个高度分散的客户群中,你们如何确保获得市场份额并保持能见度?

Hock Tan你要明白,正如Charlie刚才所说,驱动我们庞大业务量和收入的只有极少数几个客户,精确来说只有六个客户。你需要了解,这些客户在这个领域所做投入的性质,对他们每一家来说都极具战略性。对他们而言,这并非可有可无的选项。无论是短期、中期还是长期,这都是高度战略性的。他们非常清楚自己想将这些定制芯片定位在他们LLM发展的什么位置,以及如何开发用于模型产品化的推理技术。在这一部分,我们的能见度非常清晰。任何其他在GPU、云业务上的使用,都具有交易性和可选性。对于我们这几个客户来说,这并不令人困惑,他们的投资非常具有针对性并且极具战略意义。他们明确知道自己正在构建什么,以及每年想要建立多少产能。他们唯一考虑的是能不能做得更快。所以我们在长期战略路线图方面具有非常清晰的能见度。至于机架与芯片的划分澄清,我不愿具体回答,但正如Kirsten所言,我们的收入和市场情况很好。

Tom O'Malley谢谢。Hock,你特别提到客户在400G的速率下依然使用直接附加铜缆(DAC),作为CPO技术的先驱,为何特别指出这一点?对于Charlie,随着引入更多需要设计ASIC的客户,他们预计也会使用横向扩展以太网。能不能谈谈网络协议以及以太网的发展?

Hock Tan除非我特别强调我们的网络技术使我们处于独特的地位。如果你在运营和创建自己的AI数据中心,你真的需要连接越来越大的域或集群,并且尽可能将XPU与XPU直接连接。实现这一目标的最低延迟、最低功耗和最低成本的最佳方式就是使用直接附加铜缆。只要可能,在机架的纵向扩展中你就希望使用它。我们在横向扩展方面使用光学,那没问题。但在集群域的纵向扩展中,你真的希望尽可能长久地使用直接附加铜缆。基于Broadcom在连接XPU到XPU甚至GPU到GPU上的技术,我们能用铜缆做到,并且能把极限从100G、200G推向400G。我们现在有能在机架上驱动铜缆运行距离的400G SerDes。尽管我们在共封装光学(CPO)方面处于领先地位,但任何被称为CPO的技术都会在其合适的时机到来,不是今年,也许也不是明年,但总会到来。

Charlie KawasHock说得很好。关于以太网的问题,过去二十年里以太网一直是每个云数据中心的默认标准。在横向扩展网络出现时,两年前业界对于应使用什么协议还存在很大分歧。但我们非常清楚正确的答案应该是什么。同样因为与合作伙伴的深度接触,他们明确向我们和业界表明,以太网是横向扩展的首选。今天大家都在讨论用以太网进行横向扩展。现在说到纵向扩展,就像三四年前发生的一样,现在纵向扩展的正确答案是什么?我们一致听到并且看到,正确的答案就是以太网。正如你所知,去年我们与多家超大规模企业及半导体同行宣布,以太网纵向扩展是正确的选择。这就是我们认为将会发生的事情。时间会证明一切,但我们正在设计的许多XPU都要求通过以太网进行纵向扩展,我们也很乐意实现它。

Jim Schneider下午好。探讨一下你们TPU之外其他的全定制XPU项目很有帮助。展望明年,可以假设这些项目主要针对推理应用吗?你能否定性地谈谈相对于GPU的性能或成本优势?

Hock Tan你知道,我们的大多数客户从推理开始,仅仅因为这通常是最容易启动的路径。并且,推理所需的计算量较少,如果你能使用更便宜、功耗更低的定制XPU来更好或同样好地完成工作,为什么还要使用处理密集矩阵乘法的通用GPU呢?这就是我们发现客户从推理开始的原因。但他们现在也进入了训练阶段。我们的许多XPU同时用于训练和推理,它们是可以互换的。随着我们在客户向构建更完善LLM的进程中观察,他们将开始每年同时开发两款专门的芯片:一款用于训练,一款用于推理。

为什么呢?因为你需要进行训练以使你的LLM获得更高层次的智能。当你获得了一个最先进的模型后,你需要将其产品化,这意味着推理。但如果你在这个时候才决定开发推理芯片,将至少需要一年的时间,到那时别人会创造出比你更好的LLM。因此,这里存在一种信念上的飞跃,当你在训练中投入以创造下一级超级智能时,你必须同时在推理的芯片和产能上进行投资。我们的能见度越来越清晰,虽然还未在所有六个客户中发生,但我们看到大多数客户现在正朝这个方向发展。

Joshua Buchalter谢谢,恭喜取得的业绩。感谢对特定客户部署预期的详细说明。能否谈谈过去一两个季度能见度是如何变化的?另外,你提到OpenAI在2027年将部署超过1吉瓦,这是否意味着在2028年会出现急剧的拐点增长?

Hock Tan是的。在这场生成式AI竞赛中,每个参与者都在试图创造出比竞争对手更好的LLM。所有这些不仅需要训练以持续改进模型,还需要进行推理以将模型产品化和商业化。由于我们与其中一些客户的合作已经超过两年,随着他们对正在与我们合作的XPU能否实现其目标的信心日益增强,我们的能见度也越来越高。正如Charlie所指出的,归根结底我们只有六个主要客户,他们以极其战略性的眼光看待XPU和AI。他们不会只考虑一代产品,而是着眼于多代产品和多年的长远规划。面对外界关于现有产品的噪音,他们非常长远地考虑如何部署与我们一起开发的XPU,以及如何进行变现。我们是他们战略路线图的一部分,而不是短期的交易选项。这种噪音构成了短期交易选项,而我们的业务和产品立足于长期的战略定位。总而言之,我们认为在今天我们拥有的所有六个客户中,XPU业务是一项具有战略性和可持续性的业务。

往期精选:
电费“甩锅”AI?我更在意PJM那套160亿模拟盘
CPO从概念到排产——市场盯的三条时间线
2026云端资本开支上修——AI硬件交易从算力到“电冷网”
看懂SK海力士:HBM挤占产能,DDR/NAND继续冲
AI把估值尺子往“重资产”那边推——美股 2月交易主线与两只新进清单
AI重资产接棒?看懂高盛亚太笃定清单更新
从“烧钱建算力”到“盈利型 Token”:1GW 算力的变现逻辑与投资周期压力测试
AI颠覆焦虑之下,市场在押注资本开支扩散
英伟达重回首选:市场交易2027持续性与份额
存储器出口飙到+262%——韩国科技今天只交易AI服务器
 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON