内容目录
业务陈述:新增第六大客户OpenAI,明年大规模部署首代XPU,计算能力超1吉瓦;2027年仅芯片业务即可实现逾1000亿美元的AI营收目标
本季度营收193亿美元,同比增长29%;下季度营收预计220亿美元,同比增长47%
本季度半导体营收达125亿美元,其中AI半导体营收84亿美元;新增第六大客户OpenAI,明年大规模部署首代XPU,计算能力超1吉瓦
本季度网络业务收入同比增长60%,占AI收入的1/3;2027年仅芯片业务即可实现逾1000亿美元的AI营收目标
本季度非AI半导体业务营收为41亿美元,基础设施软件业务营收68亿美元,均与去年同期持平或小幅增长
本季度营业利润达128亿美元,同比增长31%,调整后EBITDA为131亿美元,占营收比例68%
半导体业务毛利率同比提升30个基点至68%,运营利润率达60%;基础设施软件毛利率为93%,运营利润率78%
本季度自由现金流为80亿美元,占营收41%,资本支出为2.5亿美元,现金储备142亿美元
下季度业绩指引:半导体收入148亿美元,同比增长76%;基础设施软件收入72亿美元,同比增长9%
分析师问答:2027年AI芯片交付规模接近10 GWh,每GWh价值因客户而异,供应链已锁定增长路径清晰可见
客户群体不仅限于超大规模企业,也有非超大规模企业,训练需求持续强劲,同时客户正通过大规模推理来实现LLM的商业化与变现
任何企业自建COT模型的技术门槛极高,当前博通遥遥领先,在可预见的未来,COT领域不会出现真正的竞争对手
AI网络业务爆发源于“Tomahawk 6+200G SerDes+1.6T DSP”的独家领先,2027年Tomahawk 7将延续性能翻倍,收入占比稳定
GPU本质为密集矩阵乘法优化,适合传统工作负载,定制XPU针对LLM的特定工作负载,设计将逐步脱离传统GPU架构,适配不同场景
AI机架出货不会拉低公司整体毛利率,因已实现高良率与成本控制
2027年AI芯片交付规模接近10 GWh,每GWh价值因客户而异,供应链已锁定增长路径清晰可见
博通已预见到AI业务的急剧加速增长,因此早已锁定关键部件,供应链锁定源于“超前预判 + 卓越合作伙伴关系”
客户对每个定制芯片在LLM发展轨迹中的定位、推理解决方案路径、产品化路线都了然于胸,他们清楚知道每年需要多少产能,目标明确
横向扩展已转向光纤,但纵向扩展应尽可能延长铜缆使用周期;XPU项目中与客户达成共识,用以太网实现纵向扩展
定制XPU已从“推理起步”全面扩展至“训练+推理”双场景,同步开发训练专用与推理专用两款XPU,可提升推理产品化效率
仅有六家客户,他们以高度战略性视角看待XPU/AI项目,不局限于单一代际,而是着眼多代产品与多年发展周期
关于我们
业务陈述:新增第六大客户OpenAI,明年大规模部署首代XPU,计算能力超1吉瓦;2027年仅芯片业务即可实现逾1000亿美元的AI营收目标
本季度营收193亿美元,同比增长29%
下季度营收预计220亿美元,同比增长47%
霍克·谭 - 总裁、首席执行官兼执行董事:
感谢各位今日的参与。
在 2026 财年第一季度,我们总营收达到创纪录的 193 亿美元,同比增长 29%,并因人工智能半导体业务超预期增长而超出预期。
强劲的营收表现转化为卓越盈利能力,第一季度合并调整后 EBITDA 达创纪录的 131 亿美元,占营收比例达 68%。这些数据证明我们的规模效应持续推动显著的经营杠杆效应。
随着定制化 AI 协处理器在五大客户中进入下一阶段部署,我们预期增长势头将进一步加速。
展望 2026 年第二季度,我们预计合并收入将达到约 220 亿美元,同比增长 47%。
本季度半导体营收达125亿美元,其中AI半导
体营收84亿美元,新增第六大客户OpenAI,
明年大规模部署首代XPU,计算能力超1吉瓦
下面我将详细说明半导体业务的具体情况。
第一季度营收创下 125 亿美元的纪录,同比增长加速至 52%。这一强劲增长主要由人工智能半导体业务驱动,其营收同比增长 106% 至 84 亿美元,远超预期。
第二季度增长势头将进一步加速,预计半导体营收将达 148 亿美元,同比增长 76%。推动这一增长的是人工智能收入,其增速将大幅提升至 140%,达到 107 亿美元。
目前,我们的定制加速器业务在第一季度同比增长 140%,这一势头将在第二季度延续。
面向五大客户的定制人工智能加速器量产进展非常顺利。
谷歌方面,第七代 Ironwood TPU 需求强劲,将延续 2026 年的增长轨迹。2027 年及以后,新一代 TPU 需求预计将更为旺盛。
Anthropic 方面,2026 年 1 吉瓦 TPU 计算需求已实现良好开局。到 2027 年,其需求预计将激增至 3 千兆瓦以上。需要补充说明的是,我们的 XPU 产品线不仅限于 TPU。
与近期分析师报告相反,Meta 定制加速器 MTIA 路线图进展顺利。我们现已开始出货。
事实上,针对下一代 XPUs,我们将在 2027 年及之后实现多吉瓦级的规模化生产。 在第四、第五大客户方面,今年出货量强劲,预计 2027 年将实现翻倍增长。
目前我们已拥有第六大客户。OpenAI 预计将在 2027 年大规模部署其第一代 XPU,计算能力将超过 1 千兆瓦。
请允许我特别强调:我们与这六家客户在 AI XPU 领域的合作具有深度、战略性和多年期特征。
我们为每项合作注入了无可比拟的技术优势:串行器/解串器(SerDes)、硅片设计、工艺技术、先进封装及网络技术,助力每位客户实现其差异化大型语言模型(LLM)工作负载的最佳性能。我们拥有成熟的交付记录,能够以极高良率加速将这些 XPU 产品推向市场并实现大规模量产。
在技术之外,我们还为客户的计算基础设施大规模部署提供多年期供应协议。在当前尖端晶圆、高带宽内存及基板产能受限的时期,我们确保供应的能力保障了合作伙伴关系的持久性,并已为 2026 至 2028 年期间的这些组件产能完成全面保障。
本季度网络业务收入同比增长60%,
占AI收入的1/3,2027年仅芯片业务
即可实现逾1000亿美元的AI营收目标
与 XPUs 强劲前景相呼应,人工智能网络需求正加速增长。
第一季度 AI 网络业务收入同比增长 60%,占 AI 总收入的三分之一。预计第二季度该业务将大幅加速增长,占比将提升至 40%。
我们在网络领域的市场份额正显著提升,具体情况如下:
在横向扩展领域,我们率先推出的 100 太比特每秒 Tomahawk 6 交换机及 200G 串行器/解串器(SerDes)正满足超大规模企业的需求——无论他们今年采用 XPUs 还是 GPUs。这一领先优势将在 2027 年通过性能翻倍的下一代 Tomahawk 7 进一步巩固。
在纵向扩展领域,随着集群规模和客户群的扩大,我们凭借 200G 串行器/解串器解决方案,为客户持续采用直连铜缆提供了独特优势。当我们在 2028 年升级至 400G 串行器/解串器时,XPU 客户很可能仍将延续直连铜缆方案。这构成巨大优势——因采用光纤替代方案成本更高且耗电量显著增加,上述因素均印证了这一点。
我们对 2027 年的业务前景已大幅明朗。事实上,我们现已清晰可见 2027 年仅芯片业务即可实现逾 1000 亿美元的 AI 营收目标,并已确保实现该目标所需的供应链体系。
本季度非AI半导体业务营收为41亿美元
基础设施软件业务营收68亿美元,均与
去年同期持平或小幅增长
现在转向非人工智能半导体业务。
第一季度营收为 41 亿美元,与去年同期持平,符合预期。企业网络、宽带、服务器存储业务营收同比增长,但被无线业务的季节性下滑所抵消。
我们预计第二季度非人工智能半导体营收将达到约 41 亿美元,同比增长 4%。
接下来谈谈基础设施软件业务。
第一季度该业务营收 68 亿美元,符合预期,同比增长 1%。预计第二季度营收将达 72 亿美元,同比增长 9%。
VMware 营收同比增长 13%。订单持续强劲,第一季度签约合同总额突破 92 亿美元,推动年度经常性收入(ARR)同比增长 19%。
需要强调的是,基础设施软件业务的增长反映了我们对基础架构的专注与投入,该业务不受人工智能领域波动影响。
事实上,VMware Cloud Foundation(VCF)是数据中心中至关重要的软件层,它将 CPU、GPU、存储和网络整合为统一的高性能私有云环境。
作为人工智能软件与物理芯片(硅片)之间永久的抽象层,VCF 无法被中介化或替代。它使企业能够以硬件无法企及的敏捷性,有效扩展复杂的生成式人工智能工作负载。
我们坚信生成式与智能代理 AI 的发展将催生对 VMware 解决方案的更大需求,而非减少。
综上所述,关于 2026 年第二季度展望:
我们预计合并收入将加速增长至 47%的同比增幅,达到约 220 亿美元;调整后 EBITDA 预计将占收入的 68%左右。
现在,我将会议交由 Kirsten 主持。
本季度营业利润达128亿美元,同比增长31%
调整后EBITDA为131亿美元,占营收比例68%
柯尔斯滕·斯皮尔斯 - 首席财务官兼首席会计官:
现在我将详细说明我们第一季度的财务表现。
本季度合并收入创下 193 亿美元的纪录,同比增长 29%。季度毛利率达到收入的 77%。合并运营支出为 20 亿美元,其中研发支出占 15 亿美元。
第一季度营业利润创纪录达 128 亿美元,同比增长 31%。得益于有利的经营杠杆效应,营业利润率较上年同期提升 50 个基点至 66.4%。
调整后 EBITDA 为 131 亿美元,占营收比例 68%,高于我们 67%的预期指导值。
半导体业务毛利率同比提升30个基点
至68%,运营利润率达60%;基础设
施软件毛利率为93%,运营利润率78%
现在让我们详细说明两个业务板块的情况。
首先是半导体领域。
受人工智能驱动,半导体解决方案业务板块营收创下 125 亿美元的历史新高,同比增长加速至 52%。
本季度半导体营收占总营收的 65%。 该业务板块毛利率同比提升 30 个基点至约68%。
11 亿美元的运营支出反映了对前沿人工智能半导体研发的加大投入,占营收比例为 8%。半导体业务运营利润率达 60%,同比上升 260 个基点,彰显出强劲的经营杠杆效应。
现在转向基础设施软件业务。
该业务收入为 68 亿美元,同比增长 1%,占总收入的 35%。
本季度基础设施软件毛利率为 93%,运营支出为 9.79 亿美元。第一季度软件业务运营利润率同比增长 190 个基点,达到 78%。
本季度自由现金流为80亿美元,占营收41%
资本支出为2.5亿美元,现金储备142亿美元
接下来是现金流情况。
本季度自由现金流为 80 亿美元,占营收的 41%。
资本支出为 2.5 亿美元。为满足强劲的人工智能需求,我们持续采购零部件,一季度末库存达 30 亿美元。
受人工智能半导体需求加速增长预期影响,本季度库存周转天数为 68 天,较上一季度的 58 天有所延长。
关于资本配置。
第一季度,我们向股东支付了 31 亿美元现金股息,按每季度普通股每股 0.65 美元的现金股息计算。当季我们回购了 78 亿美元或约 2300 万股普通股。合计而言,第一季度我们通过股息和股票回购向股东返还了 109 亿美元。
第二季度非公认会计准则摊薄股本预计约为 49.4 亿股(不计潜在股票回购影响)。
截至一季度末,公司现金储备达 142 亿美元。今日我们宣布,董事会已批准额外 100 亿美元用于股票回购计划,该计划有效期至 2026 年日历年末。
下季度业绩指引:
半导体收入148亿美元,同比增长76%
基础设施软件收入72亿美元,同比增长9%
现在进入业绩指引环节。
我们对第二季度的业绩指引是:合并收入预计为 220 亿美元,同比增长 47%。
半导体业务收入预计约 148 亿美元,同比增长 76%。其中人工智能半导体收入预计达 107 亿美元,同比增长约 140%。
基础设施软件业务收入预计约 72 亿美元,同比增长 9%。
为便于建模参考,我们预计合并毛利率将环比持平于 77%。
我们预计第二季度调整后 EBITDA 将达到约 68%。
由于全球最低税率的影响以及与 2025 财年相比的收入地域分布差异,我们预计 2026 财年第二季度非公认会计准则税率将达到约 16.5%。
我的发言到此结束。主持人,请开放电话会议提问环节。

分析师问答:2027年AI芯片交付规模接近10 GWh,每GWh价值因客户而异,供应链已锁定增长路径清晰可见
客户群体不仅限于超大规模企业,也有非超大
规模企业,训练需求持续强劲,同时客户正通
过大规模推理来实现LLM的商业化与变现
只是想澄清一下并提个问题。
霍克,关于超过 1000 亿美元的部分,我想确认你指的是 AI 芯片。我需要明确你是否区分了 ASIC 和网络业务,以及机架收入如何纳入其中。
然后是问题:我认为当前集团面临的最大悬而未决的问题是,本季度 AI 业务增长了约一倍。 我认为这正是今年云端资本支出的增长动力。
我很好奇您的观点:鉴于对 2027 年的展望,贵公司理应实现市场份额增长。但投资者普遍悲观认为超大规模企业必须在今年或明年实现投资回报,否则就得等到后年。想请教您如何将这种预期纳入公司展望考量。
霍克·谭 - 总裁、首席执行官兼执行董事:
过去几个月我们目睹的,且如今愈发明显的趋势是——其实这并非单纯讨论超大规模企业。
布莱恩,我们的客户群体远不止于此。其中既有超大规模企业,也有非超大规模企业,但他们都有一点共同之处:都在创建大型语言模型,将其产品化并打造平台——无论是面向企业用户提供代码辅助或智能代理服务,还是面向消费者提供订阅服务。
无论具体形式如何,我们发现潜在客户数量有限,而其中许多现有的客户正在创建这些平台——无论是生成式人工智能或智能体 AI,但都在构建平台。这正是我们的客户群体。
针对这些企业,我们观察到其对计算能力的需求正日益强劲,特别是持续不断的训练需求。但令我们感到非常、非常有趣且意外的是,他们主要通过推理来实现大型语言模型的产品化——即开发最新的大型语言模型并将其商业化。
这种推理需求正驱动着海量计算资源的消耗,这对我们而言是重大利好——因为这些客户(我们五六家核心客户)正着手开发专属加速器,并进一步设计这些定制加速器的网络集群架构。正如过去半年我们听到的诸多公告所示,我认为需求将持续攀升。
布莱恩,关于你提到的第一部分,当我提及预测时,我们已清晰预见 2027 年营收将远超 1000 亿美元。
我特别强调的是:这些增长几乎都基于芯片——无论是 XPUs、交换芯片还是 DSPs,我们讨论的核心都是硅芯片内容。
任何企业自建COT模型的技术门槛极高,
当前博通遥遥领先,在可预见的未来,
COT领域不会出现真正的竞争对手
哈兰·萨尔 - 摩根大通:
祝贺团队取得的优异成绩。
霍克,最近关于 CSP 和超大规模企业自主研发内部 XPU、TPU 的设计动态讨论很多,对吧? 我们称之为 COT(客户自有工具链)。这在 ASIC 领域并非新现象,对吧?博通团队过去三十年间始终引领 ASIC 行业,早已经历过这种 COT 竞争格局。而这类 COT 项目鲜有成功案例。
如今在 AI 领域,部分 COT 产品虽已面市,但其性能表现至少比你们当前代解决方案低两倍,在芯片设计复杂度、封装复杂度及 IP 层面也存在两倍以上的差距。
那么我快速提两个问题。霍克,第一个问题是:基于你对明年的预判,你认为这些 COT 科学项目能否从博通手中夺取显著的 TPU、XPU 市场份额? 第二个问题可以问你或查理:从性能复杂度和知识产权角度看,博通的 TPU 和 XPU 项目比这些 COT 项目领先 12 到 18 个月,博通团队将如何进一步扩大这种优势?
霍克·谭 - 总裁、首席执行官兼执行董事:
这是个好问题。这也印证了我开场白中特意强调的观点:当任何超大规模企业或大型语言模型开发者试图完全自主创建所谓客户自有工具(COT)模型时,都会面临巨大挑战。
其一是技术层面,具体涉及硅芯片制造技术,尤其是需要开发用于计算的异构处理器(XPUs)。这些芯片必须能够优化并运行——即训练和推理——大型语言模型(LLM)所产生的工作负载。
我们讨论的这项技术来自——来自多个维度。你需要顶尖的硅芯片设计团队。你需要尖端、真正尖端的串解码器(SerDes),非常先进的封装技术,而同样重要的是——你必须懂得如何将它们的集群相互连接。
我们在硅领域深耕二十余载。当前生成式 AI 领域,作为大型语言模型厂商,若想自主研发芯片,绝不能满足于"勉强够用"的芯片——你必须采用顶尖芯片,因为竞争对手同样在角逐。
最重要的是,你还要与英伟达竞争——这家企业绝不会放松警惕,每代产品都在持续提升芯片性能。因此,作为试图建立全球平台的 LLM 企业,你必须打造出超越英伟达乃至所有竞争对手的芯片,至少要达到与其抗衡的水准。
为此,您确实需要我们的信念支撑——我们亲眼见证了这一点。作为硅芯片领域的合作伙伴,我们拥有顶尖的技术、知识产权和执行力。
恕我直言,我们目前遥遥领先。在可预见的未来,COT 领域都不会出现竞争对手。竞争终将到来,但距离我们还很遥远,因为这场竞赛仍在持续。
此外,我们还拥有独特优势:当硅芯片问世时,必须快速实现大规模量产并投入市场。在这方面我们经验极其丰富。
任何人都能在实验室设计出性能优异的芯片,但你能快速量产十万枚芯片且保持可承受的良率吗?全球能做到这点的玩家寥寥无几。
查理?
查理·卡瓦斯 - 半导体解决方案总裁:
霍克,我觉得你讲得非常到位。
AI网络业务爆发源于“Tomahawk 6+200G
SerDes+1.6T DSP”的独家领先,2027年
Tomahawk 7将延续性能翻倍,收入占比稳定
罗斯·西摩尔 - 德意志银行:
霍克,在你的发言中,你比以往更侧重于网络差异化。因此我想提出一个短期和一个长期的问题。
短期问题是:推动 AI 收入占比达到 40%的驱动力是什么?
长期问题则是:在超过 1000 亿美元的业务中,这种比例构成是否正在发生变化? 在该业务领域,你们期望保持何种领导地位——是横向扩展还是纵向深化?这种领导地位能否助力 XPU 业务发展,实现计算与网络两端的协同优化?
霍克·谭 - 总裁、首席执行官兼执行董事:
我们先来回答这个问题比较复杂的第一部分。
没错,在网络领域,特别是随着新一代 GPU 和 XPU 的推出,我们正在使用 200 千兆比特 SerDes 来实现带宽传输。而我们六个月前——实际上更接近九个月前推出的 Tomahawk 6,目前市场上只有我们一家提供。
我们的客户和超大规模企业都希望为其集群配备最顶尖的网络设备和最大带宽。因此,我们看到市场对这款 100 太比特每秒交换机的需求极为旺盛,这正驱动着大量需求。
此外,在扩展光收发器时,1.6 太比特的带宽运行能力也起到了关键作用。我们仍是业内唯一实现 1.6 太比特 DSP 性能的厂商。这种组合正推动着网络组件的增长速度,甚至超过了我们本已相当惊人的 XPUs 增长速度。这就是你们所看到的现状。
但我想这些增长终将趋于平稳——尽管我们不会放缓步伐。正如我所说,明年(2027 年)我们将推出性能翻倍的下一代"Tomahawk 7"芯片,很可能再次成为业界率先推出该技术的厂商,这将持续保持增长势头。
最后回答您的问题:是的,我预计在任何季度,人工智能网络组件都将占我们总人工智能收入的 33% 至 40%。
GPU本质为密集矩阵乘法优化,适合传统工作
负载,定制XPU针对LLM的特定工作负载,
设计将逐步脱离传统GPU架构,适配不同场景
克里斯托弗·缪斯 - 康托·菲茨杰拉德:
我很好奇,您如何看待将预填充和解码功能从 GPU 生态系统中分离的举措,以及这对定制芯片需求的影响?您是否观察到 GPU 与客户定制芯片之间相对占比可能出现变化?
霍克·谭 - 总裁、首席执行官兼执行董事:
C.J.,我不确定是否完全理解你的问题,你能说明一下你所说的"分解"具体指什么吗?
克里斯托弗·缪斯 - 康托·菲茨杰拉德:
将工作负载推送到 CPX 进行预填充,使用 Groq 进行解码,构建这种解耦的世界。那么在定制需求与采用完整 GPU 堆栈之间,这种方案是否会带来压力?
霍克·谭 - 总裁、首席执行官兼执行董事:
我明白你的意思了,那个"分解"的词让我有点困惑。你真正想表达的是——随着工作负载的演变,无论是 GPU 还是 XPU,人工智能加速器的架构如何进化。这正是我们目前特别关注的焦点。
通用 GPU 的"一刀切"方案只能满足有限需求。虽然它仍能运行不同工作负载——比如混合专家模型——但若想高效运行混合专家模型(你可能听说过"稀疏成本"这个术语),GPU 的设计本质上是为密集矩阵乘法优化的。
虽然可通过软件内核实现,但远不如在硅片中硬编码高效——若专门设计出针对混合专家模型等工作负载的专用处理器(XPUs),性能将大幅提升。推理计算同样如此。
这最终将促使我们为特定大型语言模型客户的特定工作负载,设计出高度定制化的 XPUs。其设计将逐渐脱离传统标准 GPU 架构——正如我们此前多次强调的,XPUs 终将成为更优选择,因为它能灵活适配特定工作负载,甚至可分别针对训练和推理场景进行优化。
正如您所言,其中一种可能更擅长预填充,另一种则更适合后训练、强化学习或测试时扩展。您可以针对特定大型语言模型工作负载调整 XPU——抱歉,刚才口误了,本想说 TPU。
我们正在见证这一趋势,所有五家客户都呈现出这样的发展路线图。
AI机架出货不会拉低公司整体毛利率
因已实现高良率与成本控制
蒂莫西·阿尔库里 - 瑞银集团:
关于这些机架开始出货后对毛利率的影响,我有个疑问。显然这会拉低综合利润率,但想请教是否有可参考的控制范围?据我了解机架的毛利率约为45%至50%。
那么问题在于:当这些机架开始出货时,是否意味着毛利率将下降约500个基点?霍克,我想问的是,是否存在某种毛利率下限,低于该水平时你们将不再愿意生产更多机架?
霍克·谭 - 总裁、首席执行官兼执行董事:
很抱歉告诉你,你可能有点产生幻觉了。
我们的毛利率稳固地维持在柯尔斯滕报告的数值。毛利率不会受到影响,即便越来越多的人工智能产品面世。
我们已实现良率目标,成本控制也已达到这样的水平:我们的人工智能业务模型将与半导体业务其他领域的模型保持高度一致。
柯尔斯滕?
柯尔斯滕·斯皮尔斯 - 首席财务官兼首席会计官:
我同意这个观点。
经过进一步研究,甚至结合我上季度的评论来看,相对于我们整体业务结构的影响实际上微乎其微。
因此不必为此担忧。
2027年AI芯片交付规模接近10 GWh
每GWh价值因客户而异,供应链已锁定
增长路径清晰可见
斯泰西·拉斯贡 - 伯恩斯坦研究:
我不确定这是给霍克还是克尔斯滕的,但我想更深入探讨一下明年这个远超 1000 亿美元的数字。
我正试图统计各公司的装机容量。我数了数,大概有 8 到 9 家:Anthropic 占 3 吉瓦,OpenAI 占 1 吉瓦,合计 4 吉瓦。你说 Meta 是多倍规模,至少 2 吉瓦。这样加起来是 6 吉瓦。谷歌我估计会超过 Meta,至少 3 吉瓦,合计 9 吉瓦,此外还有几家。
我原以为你们每吉瓦的价值内容大约在 200 亿美元左右。我想确认的是:我对你们 2027 年计划交付吉瓦量的计算是否正确?以及当这些交付量实现时,该如何评估每吉瓦的价值内容?或许会"大幅"超过 1000 亿美元。
霍克·谭 - 总裁、首席执行官兼执行董事:
斯泰西,你的观点很有意思,我不得不佩服你。
但你说得对,应该用千瓦时(GWh)来衡量,而不是美元——毕竟我们就是按千瓦时卖芯片的。
你得明白,根据大型语言模型(LLM)客户的不同(目前有 6 家客户,抱歉,不是 5 家而是 6 家),每千瓦时芯片的美元价格存在差异,有时甚至相当悬殊。确实存在波动。
不过你说得对,实际金额与你提到的数字相差无几。若以 2027 年的千瓦时为单位计算,我们预计将接近 10 千瓦时。
博通已预见到AI业务的急剧加速增长,
因此早已锁定关键部件,供应链锁定
源于“超前预判 + 卓越合作伙伴关系”
本杰明·雷茨 - 美利斯研究:
霍克,很高兴与你交谈。想请教你关于 2028 年前四大核心部件供应可见性的分析。
首先,你是如何得出这个结论的? 这可能是——你是首个将预测延伸至 2028 年的分析师。
其次,鉴于贵公司人工智能业务在 2027 年实现惊人增长,基于您观察到的供应状况及相关评论,2028 年是否具备显著增长的可见性?
霍克·谭 - 总裁、首席执行官兼执行董事:
最佳答案是,是的,你说得对。
我们预见到这种急剧加速的增长,虽然没人能预料到当前展现的增长速度,但我们预见到其中很大一部分增长将持续超过 6 个月。
我们很早就锁定了 T 玻璃——就是你们都听说过的那个臭名昭著的 T 玻璃。我们行动非常迅速。我们已锁定基板供应,并与优质合作伙伴共同推进了其他关键环节的协作。
因此,对您问题的回答是:这既源于我们超前的预判,也得益于在核心组件领域拥有卓越的合作伙伴。除此之外,我还能说什么呢?没错。
查理,您还有补充吗?
查理·卡瓦斯 - 半导体解决方案总裁:
是的,可能就快速提两点。
我觉得你刚才那部分讲得非常到位。
另外一点同样重要,正如霍克所说,我们为六家客户定制芯片。我们与他们建立了深度的多年战略合作关系。正因这种定制能力,他们会向我们透露未来两到三年、有时甚至四年的具体规划。
正因如此,我们才全力确保霍克所提到的所有要素。实现这一目标需要与合作伙伴共同投资,有时不仅要扩大产能,更要开发匹配的技术与产能。
因此我们必须为多年期合作进行保障——您说得对,我们很可能是首家将保障期延长至 2028 年甚至更远的企业。
本杰明·雷茨 - 美利斯研究:
那么,根据目前的供应情况,你们能在 2028 年实现增长吗?抱歉突然插话。
查理·卡瓦斯 - 半导体解决方案总裁:
是的。
客户对每个定制芯片在LLM发展轨迹中的定位、
推理解决方案路径、产品化路线都了然于胸,
他们清楚知道每年需要多少产能,目标明确
维韦克·阿利亚 - 美银证券:
霍克,我想先澄清一下你们正在推进的 Anthropic 项目——今年约 200 亿美元用于 1 吉瓦的投资,其中芯片部分和机架部分各占多少?当你说芯片投资达 1000 亿美元时,是否区分了芯片与机架级项目?因为仅机架级项目明年预计就要翻三倍?
其次,贵司 AI 业务正从单一大型客户(曾与贵司建立独家合作)转向多客户模式,这些客户同时采用多家供应商。在客户群体高度分散、横跨各类云服务提供商的背景下,您如何确保对自身市场份额增长趋势的可视性与信心?面对这些分散使用多供应商的客户群体,你们采取了哪些措施来确保市场份额的可预测性和稳定性?
霍克·谭 - 总裁、首席执行官兼执行董事:
维韦克,你必须明白两点:
首先,正如查理精辟指出的,我们客户数量极少,确切地说,在当前业务规模和营收水平下,我们仅有 6 家客户。此前客户数量甚至更少。
其次,你必须理解每家客户的投入资金规模及其所涉业务的战略重要性。
正因如此,我才提出这个概念:Meta 的 MTIA(定制加速器计划)对他们而言——正如我所有该领域客户——是战略性举措,而非可选项。无论长短期或中期规划,这都具有极其重要的战略意义。
他们从未停歇,且对每个定制芯片在大型语言模型(LLM)发展轨迹中的定位,以及如何开发推理解决方案以实现 LLM 产品化的路径都了然于胸。这部分我们看得非常清楚。至于 GPU、新型云服务、云业务等其他领域,都属于可选的交易性业务。
所以你指出的问题确实很关键——这确实容易让人困惑。请相信,无论是对我们还是现有客户而言,情况并非如此。他们的布局极具战略性,目标明确,清楚知道要构建什么以及每年需要多少产能。
他们唯一在乎的是能否更快实现目标。除此之外,一切都围绕着既定的路线图进行着战略性、目标导向的规划。任何其他组合因素,我称之为这些客户的纯粹机会主义行为,即可选性。所以这非常明确。
维韦克·阿利亚 - 美银证券:
关于澄清说明,霍克,是人类学支架还是芯片?
霍克·谭总裁、首席执行官兼执行董事
我宁愿不回答这个问题,但我们情况还好。正如柯尔斯滕所说,我们的美元和利润率都挺不错。
横向扩展已转向光纤,但纵向扩展应尽可能
延长铜缆使用周期;XPU项目中与客户达成
共识,用以太网实现纵向扩展
托马斯·奥马利 - 巴克莱银行:
我分别给霍克和查理各准备了一个问题。
霍克,我知道你对前言内容要求非常具体且严格,你特别指出客户在 400G SerDes 技术下仍坚持使用直接连接铜缆。作为 CPO 领域的领先先驱,你特别强调这一点是否另有深意?
至于查理这边,随着客户数量增加,我认为与你们合作设计 ASIC 的客户将采用可扩展以太网方案。不妨谈谈可扩展协议的发展趋势,以及你对以太网在该领域的演进前景有何见解。
霍克·谭 - 总裁、首席执行官兼执行董事:
我只是想强调,在网络技术领域,我们的技术确实赋予了我们独特的优势,不仅能服务于我们的客户,甚至能惠及使用通用 GPU(而非仅限于 XPU)的客户。
关键在于,当您试图创建大型语言模型(LLMs),并构建自己的 AI 数据中心进行设计与架构时,你真正需要的是越来越大的域或集群——并且你确实希望在可能的情况下直接连接 XPUs。
实现这一目标的最佳方式是使用直接连接铜缆。这是延迟最低、功耗最低、成本最低的方案。因此你需要持续采用这种方案,尤其在纵向扩展时尽可能延长使用周期。
在横向扩展方面,我们早已超越了铜缆的局限,转而采用光纤技术。这固然可行,但我要讨论的是机架内、集群域内的纵向扩展。只要条件允许,直接连接铜缆仍是最佳选择。
我们仍基于博通的技术——尤其在 XPU 与 XPU、甚至 GPU 与 GPU 的互联领域。铜缆方案完全可行,且能实现从 100G 到 200G 乃至 400G 的性能突破。当前我们的串解码器已支持 400G 传输,可在机架内实现长距离铜缆互联。
我想强调的是:即便我们是 CPO 技术的领导者,您也无需急于采用这种所谓"闪亮新玩意"。CPO 技术终将到来,但不是今年,或许明年也不行——它自有其时机。查理?
查理·卡瓦斯 - 半导体解决方案总裁:
关于以太网的问题,随着云计算的兴起,过去二十年间以太网已成为所有云平台的事实标准。
正如霍克所阐述的,回溯后端网络的诞生历程,两年前业界曾就采用何种协议实现横向扩展所需的延迟与规模展开激烈争论。
当时整个行业——24 个月前——尚未形成共识。而我们早有定论,对解决方案的认知其实非常明确。正因与合作伙伴的深度协作,他们向我们及整个行业(无论是 GPU 还是 XPU 领域)都传递了明确信号:以太网是横向扩展的首选方案,毫无疑问。如今,人人都在谈论以太网的横向扩展。
而说到纵向扩展,正如三四年前纵向扩展领域发生的情况,现在我们需要寻找正确的解决方案。我们持续听闻并见证的事实是:以太网正是最佳答案。
众所周知,去年我们与多家超大规模企业及半导体行业同行共同宣布:以太网纵向扩展是正确选择。我们坚信这一趋势终将实现。
时间会证明一切,但我们正在推进的众多 XPU 设计项目中,客户普遍要求通过以太网实现纵向扩展,我们很乐意为此提供支持。
定制XPU已从“推理起步”全面扩展至“训练
+推理”双场景,同步开发训练专用与推理
专用两款XPU,可提升推理产品化效率
詹姆斯·施耐德 - 高盛集团:
霍克,听到你谈及在 TPU 之外其他全定制 XPU 项目的进展很有帮助。展望明年,是否可以认为这些项目主要针对推理应用?
此外,能否从定性角度说明相较于 GPU,这些方案在性能或成本上的优势如何,正是这些优势让客户能够实现如此大规模的预测部署?
霍克·谭 - 总裁、首席执行官兼执行董事:
大多数客户从推理开始,纯粹是因为这是最容易入手的途径——这并非出于其他原因,而是因为进行推理时所需的计算量要少得多。
但问题在于:当专用推理芯片(XPUs)能以更低成本、更低功耗实现同等甚至更优的性能时,是否还需依赖通用型 GPU 进行大规模密集矩阵运算?这正是客户初始选择的原因。
不过如今他们已进入训练阶段,我们的 XPUs 在训练与推理场景中均被广泛采用——顺带一提,这两类芯片是可互换的。
GPU 不仅能用于训练(这或许是其最擅长的领域),同样适用于推理场景。我们看到的是,我们的 XPU 正被用于这两方面。这种趋势正在持续。
但我们也注意到,对于那些在向完整 XPU 演进过程中更为成熟的客户而言,他们将开始每年同步开发两款芯片——一款用于训练,一款用于推理,实现专业化分工。
原因何在?因为我们清晰地看到,对于大型语言模型(LLM)从业者而言,训练旨在提升模型的智能水平。
当你成功打造出顶尖甚至超越前沿的 LLM 后,下一步便是实现产品化——这意味着必须进行推理部署。那么,你可以在模型运行时将其认定为最佳方案,因为若此时决定推进推理产品化,至少需要一年时间才能完成产品化,而届时他人很可能已开发出比你更优的 LLM 模型。
因此——这里存在一个信念飞跃:当你投入训练以打造下一代超智能 LLM 时,必须同步在推理能力上进行投资,包括芯片和运算能力的双重投入。
随着我们发现这 6 家客户在迈向更优质 LLM 的进程中日益成熟,我们的市场可见度正持续提升。没错,这正是我们观察到的趋势。
虽然尚未覆盖全部六家客户,但目前多数客户正朝着这个方向发展。
仅有六家客户,他们以高度战略性视角看待
XPU/AI项目,不局限于单一代际,而是着
眼多代产品与多年发展周期
约书亚·布查尔特 - 道·考恩研究:
恭喜取得这些成果。
感谢您详细说明了针对特定客户的部署预期。我希望能请您谈谈过去一两个季度中,哪些变化让您更有信心向我们提供更多细节。
另外关于具体问题:您提到 OpenAI 在 2027 年将超过 1 吉瓦。而该协议总容量为 2029 年前 10 吉瓦,这意味着 2028 年将出现显著拐点——这种理解是否正确?这是否始终是既定计划?
霍克·谭 - 总裁、首席执行官兼执行董事:
正如各位所见且我们都清楚,在当前这场生成式人工智能竞赛中——我本不该用"竞赛"这个词,不如称之为少数几家参与者之间的技术进步。
我的意思是,这确实是场竞争——各方都在努力打造比对手更优越的大型语言模型,使其更契合特定场景需求,无论是企业应用、消费级产品还是搜索领域,每个玩家都在不断精进。
这一切不仅需要持续训练来优化模型,更需要通过推理实现产品化和商业化。而我们——或许该说我们与其中几家合作已逾两年——随着他们对共同研发的 XPUs 技术日益确信其能达成预期目标,我们也获得了越来越清晰的洞察。
随着他们逐渐意识到,自己正在开发的 XPU 芯片搭载着所需的软件和算法,他们对这款 XPU 硅片的需求信心日益增强。随着持续优化,性能不断提升。
正如查理所言,性能提升让我们获得更清晰的视野。毕竟最终只有六位成员在推进这项工作。这六位成员都如我所言,以高度战略性的视角看待 XPU 与人工智能。他们不拘泥于单一代际,而是着眼于多代产品与多年发展周期。
尽管外界充斥着对现有技术的狂热炒作,他们始终以长远眼光规划:如何部署与我们共同开发的 XPU,如何通过这些部署打造出日益精进的大型语言模型。更重要的是,他们还着眼于如何通过部署实现商业变现。
因此——我们是他们战略路线图的重要组成部分。我们并非可有可无的选择项,比如"该用 GPU 还是云服务?毕竟训练只需六个月"。不,这远不止于此。这些客户的投资具有长期性,能成为长期路线图的一部分而非短期交易对象,这令人欣喜。
正如我之前回答某位提问者时所言——当前存在大量干扰因素,将短期交易行为与我们业务及产品的长期战略定位混为一谈。
总而言之,我认为我们在 XPUs 领域的业务,对现有六家客户而言都是具有战略意义的可持续布局。
科技产业观察
2025Q4科技股财报解读:
英伟达财报透视Token经济:在AI新世界,计算等同于收入,Agentic AI拐点已至,下一个浪潮是物理AI,共同驱动计算需求指数级爆炸
台积电财报透视AI需求:“AI大趋势”将持续多年而非短期泡沫,上调AI加速器2024-2029年收入CAGR,可达中高50%+!
谷歌财报透视AI应用:2025年智能代理在打基础,2026年进入消费者大规模体验与价值变现,最迫切、最让人夜不能寐的挑战是计算能力瓶颈!
微软财报透视AI代理:可以将代理视为新型应用程序,神奇之处在于部署工具后,智能代理会主动协调事务,为企业创造更多协同效应!
Meta财报透视AI应用:2026年智能代理开始真正发挥作用,Meta AI在订阅服务、广告投放以及相关领域的多元化模式都将蕴含巨大机遇!
亚马逊财报透视企业级AI:AI市场呈现出“哑铃式”格局,哑铃中段的企业级生产负载将成为最大最具持久力的部分!
SK海力士财报透视AI内存:AI推理驱动存储从外围向计算核心转型,企业级SSD需求爆发式增长,优先开发超高性能/高IOPS SSD!
三星财报透视HBM:2026年HBM产能已售罄,销售额同比暴增超3倍,客户正抢签2027年长期协议!
闪迪财报透视NAND:2027年预计新增约75–100EB的数据量,2028年需求量将翻倍,数据中心存储需求惊人,客户已商讨2029年与2030年的合作!
希捷财报透视存储需求:2026年订单已锁定,2027年配额工作即将启动,容量框架基本敲定,定价仍有谈判空间!
西部数据财报透视存储:AI能力扩展叠加云计算发展,高密度存储解决方案需求激增,与超大规模客户紧密合作,大规模交付可靠的大容量硬盘!
Palantir透视政企AI:Q4实现惊人的127法则,美国市场增长93%,充分说明正在开创前所未有的商业模式!
Workday财报透视AI颠覆:“氛围编程”无法造就真正的HR/ERP系统,“大型模型+连接数据集”完全不可行,HR与财务应用凝聚20年知识积累!
沃尔玛财报透视智能购物助手:Sparky助力从传统搜索向意图驱动型商务转型,帮助顾客清晰理解场景需求,实时生成个性化方案!
Shopify财报透视Agentic电商:2026年将开启庞大的AI购物新领域,AI对话购物须理解交易复杂性,提供至少与线上商店同样出色的体验!
Reddit财报透视AI语料:在被AI对话充斥的世界里,越来越多人转向Reddit,是为了建立联系、获取知识和开展研究!
Spotify财报透视AI音乐:正在构建语言到音乐、语言到播客、语言到书籍的数据集,品味是主观判断,因此该数据集高度特殊且持续优化!
戴尔财报透视数据中心:传统数据中心整合与现代化进程加速,从第14代升级到第17代,能效提升6:1至7:1,电力、空间、制冷效益显著!
2025Q3科技股财报解读:


