推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  带式称重给煤机  减速机型号  无级变速机  链式给煤机  履带  减速机 

英伟达财报Q&A

   日期:2026-02-26 23:15:45     来源:网络整理    作者:本站编辑    评论:0    
英伟达财报Q&A

一、Colette Kress发言

我们再次交付了一个卓越季度,实现了创纪录的收入、营业利润以及自由现金流。

本季度总收入达到 680 亿美元,同比增长 73%,较第三季度进一步加速。环比增长同样创下历史新高,本季度数据中心收入环比增加 110 亿美元。客户结构持续多元化并不断扩展,涵盖云服务提供商、超大规模数据中心运营商、AI 模型开发商、企业客户以及主权国家客户。基于数据中心规模进行数据协同设计的 Blackwell 架构需求持续增强,随着推理部署规模扩大,训练需求的弹性需求也在同步增长。向加速计算的架构转型以及 AI 在现有超级大模型工作负载中的广泛渗透,持续成为推动公司增长的核心动力。

建立自有基础能力、多模态模型基础设施之上的 Agentic AI 与 Physical AI 应用,已开始实质性驱动我们的财务表现。从全年维度看,数据中心业务实现收入 1,940 亿美元,同比增长 68%。自 2023 财年 ChatGPT 兴起以来,我们的数据中心业务规模已扩大近 13 倍。展望未来,我们预计在 2026 自然年内将保持强劲增长,并超过我们去年所披露的 5,000 亿美元 Blackwell 与 Rubin 投入机会规模中所包含的区间。

我们相信,公司已通过库存与供应承诺为未来需求做好准备,包括延续至 2027 自然年的出货安排。当前,每一个数据中心都面临电力约束。在这种约束条件下,客户基于单位功耗性能进行关键架构决策,以最大化 AI 工厂收入。SemiAnalysis 将 NVIDIA 称为“推理之王”,InferenceX 的最新进展进一步强化了我们在推理领域的领先地位。GB300 与 NVL72 相比传统架构实现最高 50 倍性能/瓦提升,以及 35 倍单机成本下降。

此外,仅在四个月内,通过对 CUDA 软件的持续优化,我们在 GB200 NVL72 上实现了最高五倍性能提升。NVIDIA 提供业内最低的单卡 token 成本,而运行在 NVIDIA 平台上的数据中心创造最高收入。凭借接近 200 亿美元的年度研发预算,以及跨计算与网络、芯片、系统、算法与软件的高效协同设计能力,我们将在每一代产品中实现性能/瓦的跨越式提升,并在长期持续巩固我们的领先地位。

第四季度数据中心收入达到 620 亿美元,同比增长 75%,环比增长 22%,主要由 Blackwell 及 Blackwell Ultra 持续驱动贡献。在 NVIDIA 基础设施需求旺盛的背景下,即便是 Hopper 架构以及大量基于六年前 Ampere 架构的产品,在云端也已售罄。自 Grace Blackwell NVL72 系统发布已近一年,目前基于 Blackwell 架构的基础设施部署规模已接近 9 吉瓦,主要由大型云服务商、超大规模运营商、AI 模型开发商及企业客户消化。

网络业务作为我们数据中心级基础设施的重要组成部分,本季度表现突出,实现收入 110 亿美元,同比增长超过 3.5 倍。 Scale-up 与 Scale-out 技术需求均创历史新高,环比实现双位数增长,主要受益于 NVLink、Spectrum-X Ethernet 以及 InfiniBand 的强劲采用。从同比角度看,增长主要由 NVLink 72 Scale-up 交换机驱动,本季度 Grace Blackwell 系统约占数据中心收入的三分之二。NVLink Scale-up Fabric 已重塑计算架构,体现了超级计算机全栈芯片极致协同设计的价值。

本季度,我们宣布将为 AWS 提供 NVLink 支持,使其可与自研芯片集成。Spectrum-X Ethernet 在 Scale-up 与跨数据中心整合方面动能强劲,客户正致力于将分布式数据中心整合为一体的示范 AI 工厂。全年网络业务收入超过 310 亿美元,较 2021 财年(我们收购 Mellanox 的年份)增长超过 10 倍。

我们的需求结构广泛、多元,并已超越单一聊天机器人应用。首先,计算平台正从传统机器学习向生成式 AI 发生根本性转型。超大规模客户将搜索、广告生成与内容推荐等传统工作负载升级至生成式 AI,并已展现明确的 ROI,这鼓励我们最大的客户进一步加速资本开支。例如,Meta 模型的进展使 Facebook 广告点击量提升 3.5 倍,并带动 Instagram 会话量提升超过 1%,转化为显著收入增长。在同一套 NVIDIA 基础设施之上,Meta Superintelligence Labs 能够训练并部署其前沿 Agentic AI 系统。前沿 Agentic 系统已达到拐点。

Cloud Code、Cloud Cowork 以及 OpenAI Codex 已实现“可用智能”,采用率迅速上升,token 已实现盈利,推动算力扩张呈现高度紧追性。算力直接转化为智能水平与收入增长。分析师对 2026 年五大云服务商与超大规模运营商的资本开支预期,自年初以来上调近 1,200 亿美元,总规模接近 7,000 亿美元。这五家公司合计贡献我们略高于 50% 的数据中心收入。

我们将继续投资,传统数据中心 GPU 加速计算迁移,以及 AI 赋能现有超大规模工作负载,将贡献我们长期机会规模的大约一半。正如电力与互联网一样,每个国家都将建设并运营其自身的 AI 基础设施。2026 财年,我们的主 AI 业务同比增长超过三倍,规模超过 300 亿美元,主要由加拿大、法国、荷兰、新加坡与美国客户驱动。长期来看,我们预计主 AI 机会规模将至少与 AI 基础设施市场同步增长,各国 AI 支出将与 GDP 规模相匹配。尽管部分 H200 产品获美国政府批准向中国客户出口,但目前尚未产生任何收入,我们也无法确定未来是否允许进口至中国。中国本土竞争对手在近期 IPO 推动下取得进展,长期可能对全球 AI 产业结构产生影响。

为维持美国在 AI 计算领域的领先地位,美国必须吸引全球开发者,并为全球商业企业的首选平台,包括中国企业。我们将持续与美国及中国政府沟通,并倡导美国在全球范围内的竞争能力。上个月在 CES 上,我们发布了 Rubin 平台,包括 Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 Ethernet Switch。该平台在训练 MoE 模型时所需 GPU 数量仅为此前四分之一,并将推进 token 成本较 Blackwell 降低最高 10 倍。

本周我们已向客户交付首批 Vera Rubin 样片,并计划于今年下半年开始量产出货。基于其模块化设计,Rubin 在系统韧性与可维护性方面相较 Blackwell 有所提升。我们预计所有主要云模型构建商都将部署 Vera Rubin。接下来将谈游戏业务。

游戏业务收入 37 亿美元,同比增长 47%,主要受 Blackwell 强劲需求及供应改善推动。GeForce RTX 仍是 PC 游戏玩家、创作者与开发者的领先平台。本季度我们推出 DLSS 4.5,通过 AI 技术将游戏画质提升至新水平;推出 G-SYNC Pulsar,在动态场景中实现更清晰的画面;并在主流 AI PC 框架下实现 35% 更快的 LLM 推理性能。展望未来,尽管终端需求强劲且渠道库存健康,我们预计供应仍将保持在第一季度及之后对游戏业务构成压力。

专业可视化业务首次突破 10 亿美元,收入达 13 亿美元,同比增长 159%,环比增长 74%。本季度我们推出配备 72GB 高速显存的 RTX Pro 5000 Blackwell 工作站,面向运行 LLM 与 Agentic 工作流的 AI 开发者。汽车业务收入 6.04 亿美元,同比增长 6%,主要由自动驾驶解决方案带来推动。在 CES 上,我们推出 Alpamayo,这是全球首个开放式推理、视觉、语言与行动型模型组合及仿真蓝图与数据集,使车辆具备思考能力。首款搭载基于 NVIDIA Drive of Alpamayo 的乘用车——全新 Mercedes-Benz CLA——即将上路。

Physical AI 已正式到来,并在 2026 财年为 NVIDIA 贡献超过 60 亿美元收入。Robotaxi 商业车队正呈指数级增长,包括 Waymo、Tesla、Uber、WeRide 与 Zoox 等在内的车队,预计将在未来十年从数千辆扩展至数百万辆,形成一个潜在规模达数千亿美元的收入的市场。这一扩张将对算力产生数量级增长的需求,所有主要 OEM 与服务提供商均基于 NVIDIA 平台开发。我们持续推进机器人发展,推出 NVIDIA Cosmos 与 Isaac 平台开放模型与框架,支持包括 Boston Dynamics、Caterpillar、Franka Robotics、LG Electronics 与 Neuro Robotics 在内的领先企业。

在财务方面,GAAP 毛利率为 75%,非 GAAP 毛利率为 75.2%,随着 Blackwell 持续放量,毛利率环比提升。GAAP 运营费用环比增长 16%,非 GAAP 基础上同比增长 21%。主要产品研发及设计支出与基础设施成本相关。第四季度非 GAAP 有效税率为 15.4%,低于此前指引,主要由于一次性税收收益影响。库存环比增长 8%,采购需求显著增加,我们已战略性锁定库存与产能以满足未来多个季度之后的需求,这反映了我们对需求更长期的可见度。尽管先进架构供应仍将保持紧张,我们对凭借规模优势、广泛供应链与长期合作伙伴关系把握未来增长机会持信心。第四季度自由现金流为 350 亿美元,2026 财年自由现金流为 970 亿美元。全年我们以股票回购与分红形式向股东返还 410 亿美元,占自由现金流的 43%。

从本季度开始,我们将在非 GAAP 结果中纳入股权激励费用。股权激励是吸引与保留世界级人才的核心薪酬组成部分。预计第一季度总收入为 780 亿美元,上下浮动 2%。增长主要来自数据中心业务。与上季度一致,我们的指引未假设来自中国数据中心计算收入。GAAP 与非 GAAP 毛利率预计分别为 74.9% 与 75%,上下浮动 50 个基点。全年毛利率预计维持在 70% 的中段区间。GAAP 与非 GAAP 运营费用预计分别为 77 亿美元与 75 亿美元,其中包含 19 亿美元股权激励费用。2027 财年全年非 GAAP 运营费用预计同比增长 40% 区间。2027 财年 GAAP 与非 GAAP 税率预计在 7% 至 19% 之间(不包括一次性项目或重大税收环境变化)。

二、Jensen Huang 发言

本季度,我们显著深化并扩展了与多家领先前沿模型开发商的合作关系。我们近期共同庆祝了 OpenAI 正式发布 GPT-5.3 Codex,该模型基于 Grace Blackwell NVLink72 系统完成训练并进行推理部署。

GPT-5.3 Codex 能够承担长周期任务,包括复杂研究流程、工具调用以及高复杂度执行任务。目前 5.3 Codex 已在 NVIDIA 内部广泛部署,我们的工程师对其表现高度认可。我们正在推动与 OpenAI 推进正式合作协议的签署,并相信双方已接近达成一致。我们对与 OpenAI 的长期合作深感振奋。OpenAI 是一家具有时代意义的公司,自其创立之初我们便有幸成为合作伙伴。

Meta Superintelligence Labs 正以极快速度扩张。上周,我们宣布 Meta 正部署数百万颗 Blackwell 与 Rubin GPU,以及 NVIDIA CPU 与 Spectrum-X Ethernet,用于训练与推理。本季度,我们还宣布与 Anthropic 建立合作关系,并对其进行 100 亿美元投资。Anthropic 将在 Grace Blackwell 与 Vera Rubin 系统上进行训练与推理部署。

Anthropic 的 Claude Cowork 智能体平台具有革命性意义,已为企业级 AI 采用打开闸门。在 Claude Cowork 与 OpenCLAW 的推动下,算力需求呈现爆发式增长,Agentic AI 的“ChatGPT 时刻”已经到来。凭借与 Anthropic、Meta、OpenAI 以及 xAI 等合作伙伴的广泛布局,NVIDIA 已部署于所有主流云平台上。我们既具备从底层构建全栈 AI 基础设施的能力,也能够在云端为合作伙伴提供支持。因此,我们在前沿模型开发的各个阶段——包括训练、推理以及 AI 工厂级扩展——都具备独特的竞争优势。

最后,我们近期与 Grok 签署了一项非独家许可协议,获得其低延迟推理技术的授权,并欢迎一支杰出的工程师团队加入 NVIDIA。正如当年整合 Mellanox 一样,我们将把 Grok 的创新技术融入 NVIDIA 架构之中,推动 AI 基础设施在性能与价值层面实现新的突破。我们期待在下个月的 GTC 大会上分享更多进展。

三、Q&A

Q:关于 2027 年增长可预见及云厂商资本开支可持续性的疑问。若云厂商 ExpExp 增长放缓,NVIDIA 是否仍能保持增长?

A:我对他们现金流的结构增长充满信心,原因非常简单。我们已经看到 Agentic AI 的拐点已经到来,并且智能体在全球企业中的实用性正在迅速显现。

正因为这一变化,算力需求呈现爆发式增长。在这个全新的 AI 世界中,算力就是收入。没有算力,就无法生成 token;没有 token,就无法实现收入增长。

因此,在这个 AI 时代,算力等同于收入。我非常确信,随着 Codex 和 Cloud Code 的生产级应用落地,以及 Cloud Cowork 的快速扩张,再加上 OpenClaw 及其企业版本所带来的巨大兴奋情绪,所有企业级 ISV 正在其工具与平台之上构建 Agentic 系统,我们已经到达拐点,并且这一拐点已经被确认。我们正在生成具有生产价值、对客户有用、同时对云服务商可盈利的 token。

理解这一逻辑的方式非常简单。计算范式已经发生改变。过去是软件运行在相对有限的计算资源上,每年约 3,000 亿至 4,000 亿美元规模的资本开支;如今这一资本开支正在转向 AI。而 AI 若要生成 token,就必须具备算力容量,而算力容量会直接转化为增长,也会直接转化为收入。

Q:关于公司战略投资(Anthropic、OpenAI、生态合作伙伴等)的作用,以及如何利用资产负债表强化生态地位。

A:正如大家所知,NVIDIA 的核心始终是我们的生态系统。这也是大家热爱我们业务的原因——生态系统的丰富性。全球几乎每一家创业公司都在 NVIDIA 生态与平台之上进行开发。

我们存在于每一家云平台、每一个本地数据中心,并覆盖全球边缘计算与机器人系统。数千家 AI 原生公司建立在 NVIDIA 之上。我们希望抓住当前这个新计算时代、新计算平台转型的历史机遇,让所有人都建立在 NVIDIA 之上。事实上,一切已经构建在 CUDA 之上,我们正处在一个极为优越的起点。

随着我们持续构建完整 AI 生态系统,无论是语言 AI、Physical AI、AI 物理仿真、AI 生物计算、机器人还是制造业,我们都希望这些生态体系建立在 NVIDIA 平台之上。这为我们提供了一个极为重要的机会,可以在整个技术栈范围内投资生态。

今天的生态体系比过去更加丰富。过去我们主要是一个基于 GPU 的计算平台公司,而如今我们已经转型为 AI 基础设施公司。我们在从计算到 AI 模型、到网络、到 DPU 等各个层面都拥有完整计算栈。

正如我之前提到的,无论是在企业、制造、工业、科研还是机器人的领域,每一个生态体系都有不同的技术栈,我们希望持续投资并强化这些生态。因此,我们的投资方向非常清晰且战略性地聚焦于扩展与深化 NVIDIA 生态系统的影响力。


Q:关于 Networking 业务增长趋势,尤其是 Spectrum-X 及未来 Spectrum-6 平台的 run-rate 展望。

A:正如大家所知,我们将自己定位为一个 AI 基础设施公司。AI 计算基础设施包括 CPU、GPU,我们发明了 NVLink,用于将单一计算节点扩展为巨型计算机架构。我们创造了“机架级计算机”这一概念。我们并不是出售单个计算节点,而是出售完整的计算机架构。

NVLink 的 scale-up 系统随后通过 Spectrum-X 与 InfiniBand 进行 scale-out,我们同时支持两者。此外,我们还通过 Spectrum-X Scale Across 实现跨数据中心扩展。因此,我们对网络业务的逻辑,是将其视为平台的延伸。我们提供开放架构,使客户能够根据其定制化数据中心需求进行组合与整合。

从根本上来说,网络是我们平台的重要组成部分。NVLink 的发展极大推动了我们的网络业务增长。每一个机架包含九个交换节点,每个节点包含两个端口,未来数量还会增加。因此,每个机架所包含的交换机容量是相当可观的。

我们现在已经成为全球最大的网络公司。如果看以太网领域,我们两年前进入以太网交换市场,我认为今天我们可能已经是全球最大的以太网网络公司,或者很快将成为。

Spectrum-X Ethernet 对我们而言是一个巨大成功。当然,我们支持客户根据自身偏好选择网络方案。有些客户非常青睐 InfiniBand 的低延迟与 scale-up 能力,我们将持续支持这一方案;另一些客户更倾向于基于 Ethernet 在数据中心内部整合网络,我们则构建了能够以 AI 方式优化数据中心处理能力的 Ethernet 架构,并且在这一领域表现卓越。

Spectrum-X 的性能已经充分证明了这一点。当你建立一个 100 亿至 200 亿美元规模的 AI 工厂时,网络效率提升 10%,甚至 20%,将直接转化为巨大的经济价值。

因此,NVIDIA 的网络业务正在高速增长,这主要源于我们构建 AI 基础设施的能力极为高效,而 AI 基础设施本身正在实现惊人的增长。


Q:在大规模长上下文、Grok 低延迟解码等趋势下,NVIDIA 是否会加强调整客户或按工作负载定制化芯片?Dial-in 架构是否会成为未来重点?

A:我们并不会主动推动或过度依赖所谓的 dial-in 架构。实际上,每个人都应该尽可能延后使用 dial-in。原因很简单:每跨越一次 dial-in,本质上就需要跨越一次接口;每跨越一次接口,就会额外增加延迟,并且带来不必要的功耗。

我们并不是完全排斥 dial-in,我们已经在使用 dial-in,但只有在绝对必要的情况下才会采用。如果你观察 Grace Blackwell 架构以及 Rubim 架构,我们使用的是两套接近光刻极限尺寸的超大芯片,并通过先进封装将其整合在一起,从而尽量减少架构层面的跨接口通信。

所谓的 dial-in“脱壳”会体现在竞争对手的架构效率上。很多人称之为 NVIDIA 的软件优势,但软件与架构之间的边界其实很难分割。我们的软件之所以成熟,是因为架构本身设计得极为出色。CUDA 架构在单点性能、单位功耗效率方面,毫无疑问优于任何其他计算架构,这正是源于我们的架构设计方式。

至于 Grok 以及低延迟解码技术,我们将在 GTC 上分享更多。但核心逻辑很简单:由于 CUDA 的存在,我们的基础设施具备极高的通用性与扩展性。我们的所有 GPU 在架构层面保持兼容,这意味着今天为 Blackwell 所做的模型优化工作,同样可以惠及 Hopper,也可以惠及 Ampere。这正是 A100 在部署多年之后依然保持竞争力的原因。架构兼容性使我们能够在软件工程与优化方面进行大规模投入,并确保整个 AI 部署基础——无论是在云端、在本地、跨多个 GPU 世代——都能够受益。

我们将继续坚持这一策略。这使我们能够延长产品生命周期,保持创新速度与灵活性,并为客户带来性能提升,尤其是在单位元性能与单位功耗性能方面的提升。至于 Grok,我们将在 GTC 展示更多细节,但总体方向是将 Grok 作为加速器整合进 NVIDIA 架构,方式类似于我们当年整合 Mellanox。


Q:数据中心收入全年环比增长展望,以及 Rubin 放量节奏;同时询问游戏业务在供应受限背景下的增长前景。

A:关于未来收入,我们仍然保持乐观。就全年而言,我们将继续销售 Blackwell,同时 Vera Rubin 也将逐步进入市场。Blackwell 架构非常成熟,客户已基于其进行了大量订单规划。

目前判断 Vera Rubin 在下半年初期放量规模仍为时尚早,但需求与兴趣非常强劲。我们预计几乎所有客户都会采购 Vera Rubin,关键问题在于其上市时间以及客户在数据中心内部部署的速度。

关于游戏业务,尽管我们希望能够更快地推出,但在未来几个月内我们仍将非常紧张。如果年底供应情况改善,我们可以讨论同比增长的可能性,但目前判断仍为时尚早,我们会在条件更明确时更新。

Q:随着推理成为AI投资重心,CUDA的重要性如何变化?

A:如果没有CUDA,我们根本无法有效开展推理业务。从我们几年前推出的TensorRT-LLM开始——它至今仍是全球性能最强的推理软件栈——为了在NVLink 72上实现优化,我们必须发明新的并行化算法,在CUDA之上分布工作负载,以利用NVLink 72的聚合带宽。

NVLink 72使我们实现了代码级别的50倍单位功耗性能提升。这是一项极具突破性的创新。构建交换技术、拆分交换模块、构建机架级系统,这些工作全部公开进行,大家都知道其难度,但结果是卓越的。我们实现了50倍性能/瓦以及35倍性能/美元的提升,推理性能的飞跃是巨大的。

必须认识到,现在对客户而言,推理等同于收入。Agent正在生成大量token,且效果极佳。当Agent进行代码编写时,往往会持续运行数分钟甚至数小时,生成成千上万甚至数十万token。多个Agent以团队形式协同工作,token数量呈指数级增长。

因此,我们必须以更高速度进行推理。当推理速度提升,而每个token都被货币化时,收入会显著增加。对数据中心而言,单位功耗的推理token数量直接转化为CSP的收入。

原因在于所有数据中心都受限于电力。无论是100兆瓦还是1吉瓦的数据中心,功率上限都是固定的。单位功耗的token数量最终会转化为单位功耗的美元收入,在百瓦规模下将直接影响总收入。

因此,每一家CSP与超大规模客户现在都已理解这一点:资本开支转化为算力,算力在正确架构下能够最大化收入。算力等同于收入。如果今天不投资算力容量,就不可能实现收入增长。选择正确架构——尤其是单位功耗性能最佳的架构——现在已经不仅仅是战略问题,而是直接影响其盈利能力。


Q:关于毛利率维持在70%以下的可持续性,以及未来是否存在技术创新以支持长期利润率。

A:影响我们毛利率的最核心因素,是能否为客户提供优质软件产品的性能提升,这是最关键的杠杆。

如果我们能够在单位功耗性能上实现超越摩尔定律的提升,如果我们在单位成本性能上实现远高于系统成本的提升,那么我们就能够维持当前毛利率水平。这是最核心的逻辑。

我们之所以加速创新,是因为taken需求已经呈指数级增长。我们都看到了这一趋势。甚至在云端,我们六年前部署的GPU都已完全被消化,且价格正在上涨。

现代软件的计算需求正在指数级增长。因此,我们的战略是每年推出完整的AI基础设施。今年我们发布了六款新芯片。Rubin之后的下一代也将推出多款新芯片。

在每一代产品中,我们都承诺实现多倍级的单位功耗性能与单位美元性能提升。通过极致协同设计,我们能够持续为客户交付价值,这正是支撑我们毛利率的核心所在。


Q:如何看待“大容量数据中心(Space Data Center)”的可行性、经济性及长期发展前景?

A:从当前阶段来看,其经济性仍然较弱,但未来将持续改善。大空环境与地面环境存在根本性差异。在太空中能源资源实际上非常充足,太阳能可获取性极高,同时空间本身几乎不存在限制。

散热条件则呈现另一种特征。太空环境温度极低,但由于不存在空气流动,热量只能通过传导方式散出,因此所需的散热器尺寸会非常庞大。液冷方案在太空环境下并不可行,因为液体系统重量过高且容易冻结。因此,我们在地球上采用的散热方式,与未来在太空中的计算系统设计将在明显差异。

不过,确实存在许多计算任务天然更适合在太空中完成。事实上,NVIDIA的GPU已经进入太空,目前Hopper架构已在轨运行。其中一个最具代表性的应用场景是高分辨率成像。通过光学系统结合人工智能,可以在太空中完成多角度重投影计算、分辨率提升以及降噪处理,从而实现极大规模、极高分辨率并且高速的成像能力。

如果将PB级影像数据全部传回地球进行处理,其成本与效率都非常低,因此直接在太空端完成计算更加合理。在完成数据处理后,仅在识别出有价值信息时再进行回传。因此,人工智能在太空领域将拥有非常重要且具有吸引力的应用前景。


Q:公司收入结构中hyperscaler客户增长更快,是否意味着客户结构正在发生变化?未来非hyperscaler是否会占更高比重?

A(Colette Kress):目前我们前五大客户——即主要CSP与hyperscaler——约占公司总收入的50%。与此同时,我们还服务于大量其他类型客户,包括AI模型开发商、企业客户、超级计算中心以及主权国家客户等,客户结构高度多元化。

你理解是正确的,这些非hyperscaler客户群体同样处于非常快速的增长阶段。我们在主要云平台中保持强势地位,同时全球范围内客户类型的持续扩展,使我们能够受益于更广泛的需求来源。这种客户多元化趋势将持续为公司带来长期优势。

A(Jensen Huang):这正是NVIDIA生态体系的重要优势之一。基于CUDA,我们是唯一一个同时存在于所有云平台、所有服务器厂商体系以及边缘计算环境中的加速计算平台,目前也正在进入电信领域。

未来无线通信网络将成为计算平台,AI驱动无线电系统将成为必然趋势,但必须有人率先发明相关技术,而我们已经推出Arial平台来推动这一进程。我们的平台几乎存在于所有机器人与自动驾驶汽车之中。

CUDA的优势在于,一方面GPU内部Tensor Core提供专用处理器级别的性能,另一方面CUDA又保持高度灵活性,使我们能够同时解决语言模型、计算机视觉、机器人、生物计算、物理模拟等几乎所有AI与计算问题。因此,客户基础的多样性本身就是NVIDIA最重要的竞争优势之一。

此外,即便处理器具备可编程能力,如果没有生态体系支撑,公司增长仍将受限于单一设计订单。通过持续投资生态并强化生态建设,我们能够实现更加自然且可持续的扩张。

最后,与 OpenAI、Anthropic、xAI、Meta 以及全球开源社区的合作伙伴至关重要。目前 Hugging Face 上已有约 150 万个 AI 模型,而这些模型几乎全部运行在 NVIDIA CUDA 之上。从整体规模来看,开源模型生态本身可能构成全球第二大的模型体系,仅次于 OpenAl。

NVIDIA 能够运行整个生态,使我们的平台具备极强通用性、易用性以及投资安全性。这也进一步推动了客户结构与平台生态在全球范围内的持续扩展。


Q: Vera CPU 在 NVIDIA 架构演进中的战略意义是什么?是否由推理工作负载多样化所驱动?

A: 关于更多细节我们将在 GTC 分享。从架构层面来看,我们在 CPU 设计上做出了与行业完全不同的决策。Vera 是目前唯一支持 LPDDR5 的数据中心 CPU,其核心设计目标是实现极高的数据处理能力。

原因在于,我们关注的大多数计算问题本质上都是数据驱动型任务,人工智能正是典型代表。在带宽与单线程性能的组合效率方面,该架构表现远超传统 CPU。

在 AI 的完整流程中,从训练之前的数据处理阶段开始,到预训练、再到后续训练阶段——如今 AI 正在学习如何调用工具,而大量工具运行在 CPU 环境或 GPU+GPU 协同环境中。Vera 正是为后训练阶段进行了专门优化设计。

整个 AI 流水线中存在大量 CPU 工作负载,我们同样高度重视 GPU 与 GPU 的协同。当算法被加速到极限后,根据 Amdahl 定律,系统将 increasingly 依赖极高单线程性能的 CPU。这正是我们打造 Grace CPU 的原因,而 Vera 在单线程性能方面相比 Grace 实现了显著跃升。


Q: 公司现金流将大幅增长,采购承诺已显著提升。在股价表现相对平稳背景下,是否考虑加大回购力度?

A: 我们非常审慎地对待资本回报问题。当前最重要的事情之一,是持续支持我们所面对的庞大生态体系。这包括从供应商端开始,确保我们能够获得所需产能与供应保障,同时也包括支持那些基于我们平台开发 AI 解决方案的早期开发者。

因此,我们会继续将战略投资作为重要组成部分。当然,我们也在持续进行股票回购,并维持股息政策。我们将根据全年情况,寻找合适且具有独特价值的时点与机会进行资本回购安排。


Q: 此前提出过 2030 年数据中心资本开支达到 3~4 万亿美元的长期空间。驱动这一拐点的核心应用是什么?是否仍然对该空间有信心?

A: 我们可以从几个不同维度来推导这个问题。

首先,从第一性原理来看,未来的软件将是 AI 驱动的软件,而 AI 的运行本质上是基于 token 的。现在大家都在讨论 token 经济学,讨论数据中心如何生成 token,以及推理如何生成 token。我们刚才提到,NVLink72 使得 token 生成在单位能耗下实现了 50 倍性能提升。token 生成已经成为未来软件与计算的核心。

如果回顾过去,传统软件对计算的需求规模远远低于未来。AI 已经到来,并且不会倒退,只会持续进化。如果过去全球每年在传统计算上投入 3,000 亿至 4,000 亿美元,而 AI 所需计算量相比过去高出数百甚至上千倍,那么计算需求本身将呈指数级上升。

如果我们相信 AI 具备商业价值,那么全球将为生成 token 而投资算力。全球所需的 token 生成能力,远不止 7,000 亿美元规模。我非常确信,我们将持续生成 token,并持续投资算力容量。因为每一家企业都依赖软件,而未来每一个软件都将依赖 AI。因此,每家公司都会成为 token 生产者,这也是我将其称为“AI 工厂”的原因。

如果你是云服务公司,你会建立 AI 工厂生成 token 来创造收入。如果你是企业软件公司,你会为运行在工具之上的 Agentic 系统生成 token。如果你是机器人制造商——自动驾驶汽车已经是先例——你会拥有大型超级计算机作为 AI 工厂生成 token,然后还需要在汽车内部持续生成 token。

我们现在相当确定,这就是未来计算方式。为什么如此确定?因为过去的软件是预编译的、预录制的。内容是预先写好、视频是预录制好的。而现在一切都变成实时生成。实时生成意味着可以根据用户、场景、意图进行动态推理与生成,这种新型软件——也就是我们所说的 Agentic AI——所需计算量高于传统预录制软件。

正如计算机相比 DVD 播放器需要更多计算能力一样,人工智能相比传统软件需要更庞大的计算能力。

从工业视角来看,所有企业本质上都是软件驱动的,云公司也是如此。如果新型软件需要生成 token,而 token 可以被货币化,那么数据中心扩张将直接推动收入增长。算力驱动收入,我认为他们都理解这一点,市场也正在逐步理解。

最后,AI 所带来的产业价值最终必须转化为收入。我们正亲眼看到 Agentic AI 的拐点已经到来,而且就在过去两三个月发生。行业内部可能在几个月前就已经察觉,但现在全球都在意识到 Agentic AI 的拐点。

Agent 已经非常智能,能够解决真实问题。代码开发已经大量由 Agent 支持。在 NVIDIA 内部,我们的工程师广泛使用 Cloud Code、OpenAI Codex,以及 Cursor,很多时候会同时使用多个系统,根据不同场景协同工作。Agent 成为协同设计与工程合作伙伴。

我们可以看到这些公司的收入正在飙升。例如 Anthropic,其收入一年内增长约 10 倍,但严重受到算力容量限制。token 需求呈指数级增长。OpenAI 同样如此。它们能够上线的算力越多,收入增长越快。

这次回到之前的框架的核心逻辑:推理等同于收入,算力等同于收入。在某种意义上,这正是新工业革命。新的工厂、新的基础设施正在建设。这种新的计算方式不会回头。

只要我们相信 token 生产是未来计算的核心——我相信这一点,行业也普遍相信——那么从现在开始,我们将持续建设并扩展算力容量。

当前我们所看到的浪潮是 Agentic AI 的拐点,而下一个拐点将是 Physical AI——将 AI 与 Agent 系统应用到现实世界的物理场景中,例如制造业与机器人领域。这是一个巨大的未来机会。

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON