业绩、指引与预期对比
Q4 FY2026业绩vs预期对比
营收:实际$68.1billion(约681亿美元),环比增长20%,同比增长73%。共识预期:约$65.8-66.2 billion(不同来源略有差异,如$65.6B、$66.13B、$66.2B)。对比:超出预期约2-3%(beat $1.9-2.5B),超出幅度中等偏上。
非GAAP每股收益(EPS):实际$1.62。共识预期:$1.52-1.54(多数来源$1.53)。对比:超出约5-6%(beat $0.08-0.10),超出幅度较大。
数据中心业务营收(核心AI驱动):实际$62.3 billion,同比增长75%,环比增长22%。共识预期:约$60.2billion。对比:超出约3-4%,继续强势。
毛利率(non-GAAP):约75.2%,略高于预期(共识约75%或略低)。
Q1 FY2027指引vs预期对比
营收指引:$78 billion±2%(中值约$78B,范围约$76.44B-$79.56B),同比增长约77%。共识预期:约$72-72.8 billion(多数来源$72.03B-$72.8B,部分$71.7B-$74B)。对比:大幅超出预期约7-8%(中值高出约$5-6B),属于显著“raise”,超出市场对增长放缓的担忧。
毛利率指引(non-GAAP):75.0%±50 bps,略有小幅收缩(环比降约0.1-0.2%),但仍保持高位,可控。
总体评估:Q4业绩稳健超出,指引更强(beat & big raise),强化AI基础设施超级周期持续性。市场反应温和(股价小涨后波动),可能因预期已高+关注点转向可持续性(如巨头们资本支出可持续性、毛利率压力、供应链、中国因素等)。
管理层重点发言原文
全年数据中心业务营收达1940亿美元,同比增长68%。自2023财年ChatGPT问世以来,该业务规模已扩大近13倍。展望未来,我们预计2026年全年收入将持续环比增长,超越去年披露的5000亿美元Blackwell和Rubin收入机遇预期。
第四季度数据中心营收达620亿美元,同比增长75%,环比增长22%,主要得益于Blackwell架构的持续强劲表现及Blackwell Ultra的量产推进。英伟达基础设施需求旺盛,云端市场中Hopper架构乃至多数六年前推出的Ampere架构产品均已售罄。
每个数据中心都面临电力限制。由于这些限制以及最大化AI工厂收入的需求,客户正根据每瓦性能(Performance per watt)做出关键的架构决策。
超大规模企业将海量传统工作负载(包括搜索、广告生成及内容推荐系统)升级至生成式AI后,显著的投资回报率数据正推动主要客户加速资本支出。例如Meta公司,其GEM模型升级使Facebook广告点击量提升3.5倍,Instagram转化率增长逾1%,转化为显著的营收增长。
尽管美国政府批准了少量H200产品出口中国客户,但我们尚未产生任何收入,且无法确定是否允许进口。中国本土竞争对手借助近期IPO融资正加速发展,长期可能颠覆全球人工智能产业格局。
物理AI技术已然落地,在2026财年为英伟达贡献了逾60亿美元营收。自动驾驶出租车出行正呈指数级增长,Waymo、特斯拉、优步、文远知行(WeRide)、Zoox等商业车队规模预计将在未来十年从2025年的数千辆扩展至数百万辆,催生出一个有望创造数千亿美元收入的市场。我们持续通过全新NVIDIA Cosmos与Isaac GR00T开源模型框架推动机器人技术发展,并为波士顿动力、卡特彼勒、发那科机器人、LG电子及Neurorobotics等领先企业提供基于NVIDIA技术的机器人与自动设备。为加速工业物理AI应用,我们宣布与达索系统、西门子、新思科技深化合作,将英伟达AI基础设施、Omniverse数字孪生、世界模型及CUDA-X库引入全球数百万从事产业研发的设计师、工程师及研究人员。
我们现在已经看到了Agentic AI的拐点,以及智能体在全球范围内、在各类企业中的实际应用价值。正因为如此,你正在看到惊人的算力需求。在这个新的 AI 世界里,算力就是收入。没有算力,就无法生成 token;没有 token,就无法增长收入。所以在这个新的 AI 世界里,算力等于收入。
每当你跨越一个接口,就会增加延迟和功耗,这是不必要的。我们并不排斥其他互连技术,我们本身已经在使用,但我们会尽量减少接口层级。
如果你看看我们的软件优势,其实很难区分软件从哪里开始、架构从哪里结束。我们的软件之所以高效,是因为我们的架构本身就非常优秀。至于 Groq——你们会在 GTC 上看到更多内容——我们将把 Groq 作为一种加速扩展方式,来延伸 NVIDIA 的架构,就像当年我们通过 Mellanox 扩展 NVIDIA 架构一样。
我们毛利率最重要、也是唯一最关键的杠杆,其实是为客户持续提供“跨代领先”的产品。这是最核心的一点。如果我们能够在性能/功耗比(performance per watt)上,实现远远超过摩尔定律所能带来的提升;如果我们能够在“每美元性能”(performance per dollar)上,创造出远远高于我们系统成本和售价增长幅度的价值,那么我们就能够持续维持毛利率水平。这是最简单、也是最重要的逻辑。
【关于太空数据中心】目前来看,这在经济性上还不理想,但随着时间推移会逐步改善。正如你所知道的,太空的运行环境与地球完全不同。那里能源非常充足——太阳能资源丰富。当然,太阳能电池板体积很大,不过在太空里空间本身是充裕的。散热方面也很特殊。太空是寒冷的,但没有空气流动,因此散热只能通过传导方式进行。所需要的散热器体积相当大。液冷显然不现实,因为它太重,而且在太空环境下存在很多限制。
CUDA的能力在于:一方面,它能够利用专用处理器的性能优势,比如我们 GPU 内部的Tensor Core;另一方面,它又具备 CUDA 带来的灵活性,使我们能够解决语言问题、计算机视觉问题、机器人问题、生物问题、物理问题,以及几乎所有类型的 AI 和各种计算算法问题。如果没有我们自己的生态系统,即便我们的处理器是可编程的,如果我们不去培育生态——就像我们今天所谈到的,对未来生态系统进行投资——那么我们就很难超越仅仅为他人生态系统赢得设计订单(design wins)的局面。
在 AI 的完整生命周期中——从模型训练之前的‘数据处理’开始,到‘预训练’(Pre-training),再到‘后训练’(Post-training)——每个阶段的需求都不同。在整个 AI 流水线的某些环节中,依然需要大量的 CPU 算力。我们既爱 GPU,也同样重视 CPU。当你像我们一样把算法加速到了极致时,根据阿姆达尔定律(Amdahl’s Law),剩下的非并行部分就需要性能极强的单线程 CPU 来跑。这就是为什么我们把 Grace 设计得单线程性能极强,而 Vera 的表现更是直接突破了天花板。
坦白说,无论业绩表现多么出色,近期股价似乎并没有太大涨幅。所以我认为,你们应该也觉得现在的股价是回购的大好时机。为什么不直接明确表态,在这里进行一次巨额的股票回购(Share Repo)呢?谢谢。我们始终认为,目前能做的最重要的事情之一,就是全力支持摆在我们面前的这个极其庞大的(Extreme)生态系统。这种支持涵盖了方方面面:从我们的供应商开始,我们需要做大量工作来确保获得必要的供应,并帮助他们提升产能;一直延伸到那些正在我们平台上开发 AI 解决方案的早期开发者。因此,我们(将资金)继续用于战略投资和支持生态系统,仍将是我们流程中非常重要的一部分。
在未来,通过 AI 实现的软件运行模式将由‘代币(Token)’驱动。现在大家都在谈论‘代币经济学’,谈论数据中心产出代币、推理是在生成代币,我们也正在生成代币。AI 已经降临,它不会退场,只会变得更强。过去全球每年在传统计算上的投入大约是 3000 到 4000 亿美元,但现在 AI 时代所需的计算量比以前高出 1000 倍。计算需求正在呈指数级爆发。我认为全球所需的‘代币生成能力’规模远超 7000 亿美元。我非常有信心,我们将继续投资建设算力,因为每一家公司都依赖软件,而每一款软件都将依赖 AI。因此,每家公司都会生产代币,这就是我把它们称为‘AI 工厂’的原因。为什么我们如此肯定这是计算的未来?因为以前的软件是‘预录制’的(Pre-recorded),所有内容都是预先编译、预先写好、视频是预先录好的。但现在,一切都是实时生成的(Generative in real-time)。实时生成意味着可以结合个人语境、环境、意图来产生结果,这就是我们所说的代理型 AI(Agentic AI)。这种实时生成所需的计算量远超预录制时代——就像一台电脑的计算能力远超一台只能放预录内容的 DVD 播放机一样。
财报电话会议交流全文
日期
2026年2月25日星期三,美国东部时间下午5点
电话会议参与者
- 总裁兼首席执行官——黄仁勋
- 执行副总裁兼首席财务官——科莱特·克雷斯
- 投资者关系副总裁——Toshiya Hari
完整电话会议记录
Toshiya Hari:各位下午好,欢迎参加英伟达公司2026财年电话会议。今日与我同席的有英伟达公司总裁兼首席执行官黄仁勋,以及执行副总裁兼首席财务官Colette Kress。
科莱特·克雷斯:Toshiya,谢谢。我们再次交出了亮眼的季度成绩单,营收、营业利润和自由现金流均创历史新高。总营收达680亿美元,同比增长73%,增速较第三季度进一步提升。环比增长同样创下历史新高,数据中心业务新增营收110亿美元,客户群体持续多元化扩张,涵盖云服务提供商、超大规模企业、人工智能模型开发商、大型企业和主权国家。由于推理部署与训练需求同步增长,市场对我们 Blackwell 架构(其具备数据中心规模的极致软硬协同设计能力)的需求持续走强。向加速计算的转型以及人工智能在现有超大规模工作负载中的深度融合,持续推动着我们的增长。
构建在日益智能化和多模态模型之上的代理型 AI(Agentic AI)和物理 AI(Physical AI)应用,正开始驱动我们的财务表现。
全年数据中心业务营收达1940亿美元,同比增长68%。自2023财年ChatGPT问世以来,该业务规模已扩大近13倍。展望未来,我们预计2026年全年收入将持续环比增长,超越去年披露的5000亿美元Blackwell和Rubin收入机遇预期。我们已建立库存与供应承诺体系以应对未来需求,包括延伸至2027日历年的出货计划。每个数据中心都面临电力限制。由于这些限制以及最大化 AI 工厂收入的需求,客户正根据每瓦性能(Performance per watt)做出关键的架构决策。
权威机构SemiAnalysis将英伟达公司评为推理之王,近期InferenceX测试结果进一步巩固了我们的推理领导地位:GB300和NVL72在每瓦性能上最高提升50倍,每代币成本降低35倍。通过持续优化CUDA软件,GV200和NVL72在短短四个月内性能提升高达5倍。英伟达公司实现最低代币成本,采用英伟达解决方案的数据中心创造最高收益。我们的创新速度,尤其是在如此规模下,无可匹敌。
依托近200亿美元的年度研发预算,以及我们在计算与网络领域跨芯片、系统、算法和软件的极致协同设计能力,我们计划每代产品都实现性能功耗比的指数级飞跃,并长期巩固领先地位。
第四季度数据中心营收达620亿美元,同比增长75%,环比增长22%,主要得益于Blackwell架构的持续强劲表现及Blackwell Ultra的量产推进。英伟达基础设施需求旺盛,云端市场中Hopper架构乃至多数六年前推出的Ampere架构产品均已售罄。自Grace Blackwell GB200 NVL72系统发布至今已近一年。目前全球主要云服务商、超大规模企业、AI模型开发者及企业客户已部署近9吉瓦基于Blackwell架构的基础设施。作为数据中心级基础设施的基石,网络业务在本季度成为的亮点,营收达110亿美元,同比增长逾3.5倍。
本季度对垂直扩展与水平扩展技术的需求均创历史新高,环比增长均达两位数。这主要得益于NVL72垂直扩展交换机的广泛采用——Grace Blackwell系统约占本季度数据中心营收的三分之二。NVLink垂直扩展架构彻底革新了计算模式,彰显了超级计算机全芯片及全栈协同设计的强大实力。第四季度,我们宣布将支持AWS通过NVLink集成其定制芯片。随着客户致力于将分布式数据中心整合为集成化的千兆级AI工厂,Spectrum X以太网纵向扩展与横向扩展网络解决方案正呈现强劲发展势头。
全年网络业务收入突破310亿美元,较收购Mellanox的2021财年增长逾十倍。
需求结构呈现多元化扩张态势,已超越聊天机器人领域。首先,行业正经历从传统机器学习向生成式AI的根本性平台转型。超大规模企业将海量传统工作负载(包括搜索、广告生成及内容推荐系统)升级至生成式AI后,显著的投资回报率数据正推动主要客户加速资本支出。例如Meta公司,其GEM模型升级使Facebook广告点击量提升3.5倍,Instagram转化率增长逾1%,转化为显著的营收增长。依托NVIDIA基础设施,Meta超级智能实验室得以训练并部署前沿智能体AI系统。这类前沿智能体系统已达发展拐点。
Claude Code、Claude Cowork和OpenAI Codex已实现实用级智能。其采用率正呈爆炸式增长,且按代币计费模式盈利可观,这促使计算能力扩展变得极其紧迫。计算能力直接转化为智能水平和营收增长。
分析师对五大云服务商及超大规模企业2026年资本支出的预期(其合计贡献我们数据中心收入逾50%)自年初以来已攀升近1200亿美元,逼近7000亿美元大关。我们继续预期:传统数据中心工作负载向GPU加速计算的迁移,以及运用AI增强现有超大规模工作负载,将共同贡献我们长期机遇的约半数份额。正如当今电力与互联网基础设施,每个国家都将自主建设并运营部分AI基础设施。
2026财年,我们的主权人工智能业务同比增长逾三倍,突破300亿美元大关,主要由加拿大、法国、荷兰、新加坡和英国客户驱动。长期来看,随着各国AI支出占GDP比例提升,我们预计主权业务增长将至少与AI基础设施市场同步。尽管美国政府批准了少量H200产品出口中国客户,但我们尚未产生任何收入,且无法确定是否允许进口。
中国本土竞争对手借助近期IPO融资正加速发展,长期可能颠覆全球人工智能产业格局。美国若要保持人工智能计算领域的领导地位,必须吸引全球开发者,成为包括中国企业在内的所有商业机构首选的平台。我们将持续与中美政府沟通,倡导美国在全球竞争中的核心竞争力。
上月我们在CES发布了Rubin平台,包含六款新芯片:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU及Spectrum-6以太网交换机。该平台训练MoE模型所需GPU数量仅为Blackwell平台的四分之一,推理代币成本最高可降低10倍。本周初我们已向客户交付首批Vera Rubin样品,并按计划于下半年启动量产出货。凭借模块化无线缆托盘设计,Rubin将比Blackwell提供更强的弹性和可维护性。我们期待所有云模型构建者都采用Vera Rubin。
游戏业务方面,受Blackwell强劲需求与供应改善推动,游戏营收达37亿美元,同比增长47%。GeForce RTX已成为PC玩家、创作者及开发者的首选平台。第四季度我们推出多项技术革新,包括运用AI技术将游戏画质提升至全新高度的DLSS 4.5,以及在主流AI PC框架中实现35%加速的LLM推理性能。展望未来,尽管终端需求持续强劲且渠道库存水平健康,但供应限制仍将是游戏业务在第一季度及后续时期的主要挑战。
专业可视化业务首次突破10亿美元大关,实现营收13亿美元,同比增长159%,环比增长74%。本季度我们推出了RTX Pro 5000 Blackwell工作站,配备72GB高速内存,专为运行大型语言模型和智能体工作流的AI开发者打造。汽车业务收入达6.04亿美元,同比增长6%,主要得益于自动驾驶解决方案的强劲需求。在CES展会上,我们推出全球首个开放式推理、视觉、语言、动作模型、仿真蓝图及数据集组合——Alpamayo,助力打造具备思考能力的车辆。基于英伟达Drive平台打造的首款搭载Alpamayo的乘用车,即将搭载于全新梅赛德斯-奔驰CLA车型亮相道路。
物理AI技术已然落地,在2026财年为英伟达贡献了逾60亿美元营收。自动驾驶出租车出行正呈指数级增长,Waymo、特斯拉、优步、文远知行(WeRide)、Zoox等商业车队规模预计将在未来十年从2025年的数千辆扩展至数百万辆,催生出一个有望创造数千亿美元收入的市场。这种扩张将需要数量级增长的计算能力,所有主要汽车制造商和运营商都在基于英伟达平台进行开发。
我们持续通过全新NVIDIA Cosmos与Isaac GR00T开源模型框架推动机器人技术发展,并为波士顿动力、卡特彼勒、发那科机器人、LG电子及Neurorobotics等领先企业提供基于NVIDIA技术的机器人与自动设备。为加速工业物理AI应用,我们宣布与达索系统、西门子、新思科技深化合作,将英伟达AI基础设施、Omniverse数字孪生、世界模型及CUDA-X库引入全球数百万从事产业研发的设计师、工程师及研究人员。
接下来看损益表其他部分。GAAP毛利率为75%,非GAAP毛利率为75.2%,随着Blackwell芯片持续量产,毛利率环比提升。GAAP运营支出环比增长16%,非GAAP运营支出增长21%,主要源于新品上市及计算与基础设施成本增加。第四季度非公认会计准则有效税率为15.4%,低于季度预期,主要受一次性税务优惠影响。库存环比增长8%,采购承诺额亦显著提升——我们已战略性地确保库存与产能,以满足未来数个季度之外的需求。此举较往常更具前瞻性,反映出我们对需求前景的更长远预判。
尽管我们预计先进架构产品的供应紧张态势将持续,但凭借规模优势、广泛的供应链及长期合作伙伴关系,我们仍对把握未来增长机遇充满信心。2026财年第四季度自由现金流达350亿美元,全年累计达970亿美元。全年通过股票回购和股息形式向股东返还410亿美元,占自由现金流的43%。我们将持续投入技术与生态系统建设,培育市场发展、驱动长期增长,最终实现超越市场及同业的股东总回报。
值得强调的是,我们将持续以战略性且严谨的方式推进投资决策,并始终致力于向股东返还资本。
现在谈谈第一季度展望。从本季度起,我们将把股权激励费用纳入非公认会计准则业绩。股权激励是我们吸引和留住世界级人才的核心薪酬机制。首先谈收入:总收入预计为780亿美元,波动范围±2%。数据中心业务将成为主要增长引擎。与上季度一致,本次展望未计入中国市场的数据中心计算收入。预计GAAP与非GAAP毛利率分别为74.9%和75%,波动区间±50个基点。全年毛利率仍将维持在75%中段水平。
在筹备Vera Rubin过渡期间,我们将持续通报进展。预计GAAP和非GAAP运营支出分别为约77亿美元和75亿美元,其中含19亿美元股权激励支出。对于整个2027财年,我们预计GAAP和非GAAP税率将在7%至19%之间,不包括任何离散项目和税收环境的重大变化。就此,我将电话会议交给Jensen。我想他有几句话要对我们说。
Toshiya Hari:本季度我们与前沿模型领域的领军厂商深化了合作关系。
黄仁勋:我们近期庆祝了OpenAI推出基于Grace Blackwell和NVLink 72系统训练与推理的GPT-5.3 Codex模型。该模型能处理涉及研究、工具使用和复杂执行的长期任务,已在英伟达内部广泛部署,深受工程师好评。我们正与OpenAI推进合作协议,相信即将达成。能与这家百年一遇的创新企业自其创立之初便携手合作,我们倍感振奋。Meta超级智能实验室正以惊人速度扩张。上周我们宣布Meta将部署数百万台Blackwell和Rubin GPU、英伟达CPU及Spectrum X以太网设备用于训练与推理。
本季度我们宣布与Anthropic建立合作关系,并对其公司投资100亿美元。Anthropic将在Grace Blackwell和Vera Rubin系统上进行训练与推理。其Claude Cowork智能体平台具有革命性意义,为企业人工智能应用打开了闸门。随着Claude Cowork与OpenAI的双重驱动,计算需求正呈指数级增长,ChatGPT式智能体AI的时代已然到来。凭借与Anthropic、Meta、OpenAI及xAI的战略合作,英伟达已覆盖所有云平台。我们既能从零构建全栈式AI基础设施,也能提供云端支持,这使我们能够在训练、推理及AI工厂规模化部署等各个阶段,与前沿模型开发者建立独特合作关系。
最后,我们近期与Groq达成非许可协议,引入其低延迟推理技术,并欢迎该团队杰出工程师加入英伟达。正如我们对Mellanox所做的那样,我们将通过Groq的创新技术扩展英伟达架构,实现人工智能基础设施性能与价值的新突破。期待下月在GTC大会上分享更多详情。K. 回到您这里。
Toshiya Hari:现在开始提问环节。请主持人开始征集问题。
Sarah:在此提醒各位,提问请按电话键盘上的星号键后按1键。首轮提问来自美银证券的Vivek Arya。
Vivek Arya:感谢接受我的提问。我想你刚才提到了,你们现在的增长可见度已经延伸到了 2027 日历年,而且我认为你们的‘采购承诺’也反映了这种信心。
但是,Jensen,我很好奇。当你观察你的顶级云客户时,今年云厂商的资本支出(CapEx)已接近 7000 亿美元。许多投资者担心,这个水平在明年可能很难再继续增长。而且对于其中几家公司来说,它们的现金流产生能力也正在受到挤压。
所以,我知道你对自己的产品路线图、采购承诺等等非常有信心。但我想问,你对你的客户‘继续增加资本支出’的能力到底有多大信心?而且,如果他们的资本支出(CapEx)不再增长,英伟达是否仍有办法在这一预算范围内(或这种环境下)寻找到增长空间?谢谢。
黄仁勋:我对他们现金流的增长非常有信心。原因其实很简单。我们现在已经看到了Agentic AI的拐点,以及智能体在全球范围内、在各类企业中的实际应用价值。正因为如此,你正在看到惊人的算力需求。在这个新的 AI 世界里,算力就是收入。没有算力,就无法生成token;没有 token,就无法增长收入。所以在这个新的AI 世界里,算力等于收入。而且我可以确定的是,在当前这个阶段,已经有相当规模的计算设备部署在市场中——可以说,大约有 3000 亿到 4000 亿美元的资本已经投入到计算基础设施中。很好,谢谢。
关于一些战略投资,尤其是OpenAI。我们在这个模型生态中既是核心参与者,同时也在 NVIDIA 平台上展开合作。我们存在于每一个云平台,在每一个数据中心,遍布全球。从边缘计算到数十家原生 AI 公司,都是建立在 NVIDIA 的AI 生态系统之上——无论是语言 AI、物理AI,还是 AI 物理仿真。所有这些生态系统都构建在NVIDIA 之上。我们投资的是覆盖整个技术栈的生态体系。今天我们比过去更深入地参与其中。我们几乎覆盖了计算的每一个方面,从底层算力到 AI 模型、深度学习,以及规模化扩展。正如我之前提到的,scale up——从 GPU,到节点,再到整机系统,我们都在做。我们的机柜系统确实非常令人惊叹。
我们当然也非常重视网络。有些人希望将以太网与人工智能深度整合,我们在这方面做得极其出色。我们的 Spectrum X 性能已经充分证明了这一点。一个十亿美元级的 AI 工厂——也就是你的数据中心——本质上就是 NVIDIA 的网络业务。每当你跨越一个接口,就会增加延迟和功耗,这是不必要的。我们并不排斥其他互连技术,我们本身已经在使用,但我们会尽量减少接口层级。因此,当你看到 Grace Blackwell 架构和 Rubin 架构时,你会发现我们通过更紧密的集成,大幅减少了系统架构中的接口数量和复杂度,相比竞争对手更高效。
如果你看看我们的软件优势,其实很难区分软件从哪里开始、架构从哪里结束。我们的软件之所以高效,是因为我们的架构本身就非常优秀。CUDA 架构毫无疑问更加高效、更加节能——从每 FLOP 每瓦特的效率来看表现突出。几代 GPU 架构都会从中受益。因此我们会持续推进这一方向,这让我们能够延长产品的使用寿命,保持创新能力、灵活性和开发速度,并且——非常重要的是——为客户带来更高性能。
至于 Groq——你们会在 GTC 上看到更多内容——我们将把 Groq 作为一种加速扩展方式,来延伸NVIDIA 的架构,就像当年我们通过 Mellanox 扩展 NVIDIA 架构一样。
Sarah:下一位提问者是Stacy Rasgon。
Stacy Rasgon:感谢您接受提问。【问题不见了,应该是问新架构的需求或量产】
科莱特·克雷斯:这是一个非常出色的架构。我们今天刚刚迅速启动部署,并且已经在不同客户之间规划了多项订单,以此来确定下半年最初的产能爬坡将如何展开。
至于 Fusion 方面,目前需求非常强劲,但现在判断还为时过早。我们会在能够确认更多情况之后,尽快向大家反馈。
莎拉:下一位提问者是花旗集团的阿蒂夫·马利克。
阿提夫·马利克:感谢您回答我的问题。Jensen,随着越来越多的 AI 投资资金开始流向推理(inference)工作负载,您能谈谈 CUDA 的重要性吗?
黄仁勋:不——整个技术栈都是关键。从我们推出的 TensorRT-LLM 开始,这是目前性能最强的推理技术栈。为了针对 NVL 进行优化,我们必须在CUDA 之上不断探索并发明新的并行化算法,用于分布式处理工作负载和推理任务,从而充分利用整体算力资源。
这些系统——这些智能体(agentic)系统——会不断衍生出不同的代理,与团队协同工作,生成的 token 数量已经呈指数级增长。因此,我们需要以更高的速度进行推理。而当推理速度大幅提升、每一个 token 都可以被货币化时,它就会直接转化为收入。所以对我们的客户来说,算力就等于收入。
数据中心也是如此——每增加一个吉瓦级别的算力容量,都会直接转化为收入。因此你可以看到,现在每一家云服务提供商(CSP)、每一家超大规模云厂商(hyperscaler)都已经理解这一点:资本开支(CapEx)转化为算力;拥有正确架构的算力可以最大化收入;算力等于收入。
如果今天不投资产能、不投资算力,就不可能实现收入增长。我认为这一点大家都已经明白了。算力等于收入。架构的重要性前所未有——它现在不仅仅是战略问题,而是直接影响企业盈利。选择正确的架构,选择每瓦性能最优的架构,几乎决定了一切。
莎拉:下一位提问者是Melius Research的本·莱茨。
本·莱茨:好的,谢谢。首先,我想说一句,把这个纳入非 GAAP 指标真的很棒,我觉得这是非常好的做法。
关于毛利率——长期来看通常是在 70% 中段这个水平——我们是否可以从目前对 2027 年自然年供应可见度的判断中理解为,这样的毛利率水平在那之前是可持续的?
然后,Jensen,再往后看呢?在内存使用方面是否会有新的技术创新,可以让我们对公司长期维持这一毛利率水平更有信心?
科莱特·克雷斯:我们毛利率最重要、也是唯一最关键的杠杆,其实是为客户持续提供“跨代领先”的产品。这是最核心的一点。
如果我们能够在性能/功耗比(performance per watt)上,实现远远超过摩尔定律所能带来的提升;如果我们能够在“每美元性能”(performance per dollar)上,创造出远远高于我们系统成本和售价增长幅度的价值,那么我们就能够持续维持毛利率水平。这是最简单、也是最重要的逻辑。
之所以我们推进得如此之快,是因为第一,全球对 token 的需求——在我们经历的这些拐点之后——已经呈现完全指数级增长。我认为我们都已经看到了这一点。
甚至到了这样一个程度:我们在云端部署的六年前的 GPU,如今依然需求旺盛,价格也在上涨。因此我们知道,所需的计算量——现代软件运行方式所需的算力——正在指数级增长。
我们的战略是:每一年都交付完整的一代 AI 基础设施。
今年,我们推出了六款新芯片。下一代 Rubin 也会按代持续推进。我们承诺在每一代产品中都提供数倍级的性能/功耗提升,以及性能/美元提升。我们能够以这样的节奏推进,并通过极致的协同设计(extreme co-design),把这些价值和收益真正交付给客户。
这正是我们价值创造中最关键、最核心的因素。
Toshiya Hari:下一位提问者是New Street Research的Antoine Chiketan。
Antoine Chiketan:您好,感谢您回答我的问题。我想请教一下关于“太空数据中心”的问题——这是部分客户正在考虑的方向。您认为这种模式的可行性如何?大概处于什么样的时间周期?
从目前来看,它的经济性如何?以及您认为未来这种经济性会如何演变?
黄仁勋:目前来看,这在经济性上还不理想,但随着时间推移会逐步改善。正如你所知道的,太空的运行环境与地球完全不同。那里能源非常充足——太阳能资源丰富。当然,太阳能电池板体积很大,不过在太空里空间本身是充裕的。
散热方面也很特殊。太空是寒冷的,但没有空气流动,因此散热只能通过传导方式进行。所需要的散热器体积相当大。液冷显然不现实,因为它太重,而且在太空环境下存在很多限制。
因此,我们在地球上使用的方法,与在太空中可能采用的方法会有所不同。不过,确实有许多不同的竞争性方案希望在太空中实现。
事实上,MPS 已经是全球首个进入太空的 GPU 系统,Hopper 也已经在太空中运行。GPU 在太空中最好的应用场景之一是成像。
通过光学设备和人工智能,实现超高分辨率成像;进行不同角度的重投影计算;实现超分辨率(up-res)、降噪处理;能够以极高分辨率、极大规模,并且非常快速地进行成像。
如果把数 PB 级的图像数据传回地球再进行处理,这是非常困难的。相比之下,直接在太空中完成计算更为高效。然后只在发现有价值信息时再传回相关数据,而忽略大量已采集并处理过但无关的数据。
因此,人工智能在太空中将会拥有非常好的、非常有趣的应用场景。
Toshiya Hari:下一位提问者是Evercore ISI的Mark Zapakos。
马克·扎帕科斯:您好,感谢您回答我的问题。我想延续一下您在发言稿中的一个评论。我记得,科莱特,您提到超大规模云厂商(hyperscalers)占公司收入的 50% 以上,但增长主要是由其他数据中心客户带动的。
我想确认一下,这是否意味着非超大规模客户的增速更快?
如果是这样的话,他们所做的事情是否与 hyperscalers 不同?还是说本质相同,只是规模不同?
您是否预计会出现一个时间点,使得非 hyperscaler 客户在公司整体业务中的占比变得更大?
黄仁勋:我们的前五大客户——正如我们之前所说——是 CSP,也就是超大规模云厂商,大约占收入的 50%。但我们合作的公司类型非常广泛,涵盖 AI 模型开发者,以及在我们平台上提供服务的企业。现在我们在全球范围内看到客户群体呈现出高度多样化。这种生态系统的多样性,将为我们带来真正的长期收益。
科莱特·克雷斯:我们的平台存在于每一个云平台之中,也延伸到边缘端。我们现在还在培育电信行业,使其也成为一个计算平台。这是一个必然趋势,只是需要有人去发明和打造实现这一目标的技术。我们已经创造了相关技术——我们推出了一个名为Ariel 的平台来实现这一点。
几乎每一辆自动驾驶汽车都在使用我们的技术。CUDA 的能力在于:一方面,它能够利用专用处理器的性能优势,比如我们 GPU 内部的 Tensor Core;另一方面,它又具备 CUDA 带来的灵活性,使我们能够解决语言问题、计算机视觉问题、机器人问题、生物问题、物理问题,以及几乎所有类型的 AI 和各种计算算法问题。
因此,我们客户基础的多样性是我们最大的优势之一。
第二点是,如果没有我们自己的生态系统,即便我们的处理器是可编程的,如果我们不去培育生态——就像我们今天所谈到的,对未来生态系统进行投资——那么我们就很难超越仅仅为他人生态系统赢得设计订单(design wins)的局面。正是因为我们打造了自己的平台,我们才能够不断扩展和壮大我们的生态系统。
最后一个非常重要的因素,是我们与 OpenAI、Anthropic、xAI、Meta 等公司的合作关系。现在几乎全球所有的开源模型都在我们的平台上进行测试和运行。Hugging Face 上有大约 150 万个AI 模型,全部都运行在 NVIDIA 的 CUDA 上。
如果从整体来看,开源模型的集合体可能代表着全球第二大模型体系——最大的是 OpenAI,第二大可能就是所有开源模型的总和。NVIDIA 能够运行所有这些模型,使我们的平台具备极强的通用性、易用性,并且成为一个非常安全、值得投资的选择。
因此,这造就了我们客户群体的多样性、平台形态的多样性,并且覆盖每一个国家——因为我们支持的是全球的生态系统。
Toshiya Hari:下一位提问者是富国银行的Aaron Rakers。
Aaron Rakers:感谢接受提问。接着刚才关于平台和‘极致软硬协同设计(extreme codesign)’的话题,最近有消息称英伟达有能力、并正在推动将 Vera CPU 作为独立解决方案推向市场。Jensen,随着我们不断向前发展,这在架构演进中占据什么地位?这种做法更多是由计算任务的激增(Proliferation)驱动的,还是由计算任务的异构性(Heterogeneity)驱动的?你如何看待英伟达的演进,特别是在独立 CPU 这一块?
黄仁勋:谢谢。不用谢,关于这件事的更多细节我会在 GTC 大会上向大家透露。但从最高层面来看,我们在 CPU 架构决策上选择了与世界其他厂商截然不同的道路。
我们的 CPU 仅支持 LPDDR5 内存,其核心设计目标是实现极高的数据处理能力。原因很简单:我们关注的大多数计算问题(包括 AI)都是数据驱动的。Vera 的单线程性能与带宽的配比堪称‘离谱’(Off the charts)。
我们之所以做这些架构决策,是因为在 AI 的完整生命周期中——从模型训练之前的‘数据处理’开始,到‘预训练’(Pre-training),再到‘后训练’(Post-training)——每个阶段的需求都不同。
现在的 AI 正在学习如何使用工具(Agentic AI)。而在使用工具的过程中,许多工具要么运行在纯 CPU 环境下,要么运行在 CPU 与 GPU 协同的环境中。Vera 正是为‘后训练’阶段量身定制的卓越 CPU。
在整个 AI 流水线的某些环节中,依然需要大量的CPU 算力。我们既爱 GPU,也同样重视 CPU。当你像我们一样把算法加速到了极致时,根据阿姆达尔定律(Amdahl’s Law),剩下的非并行部分就需要性能极强的单线程CPU 来跑。这就是为什么我们把 Grace 设计得单线程性能极强,而 Vera 的表现更是直接突破了天花板。
Tim Arcuri:非常感谢。我想请教一下关于资本部署(Capital Deployment)的问题。我知道你们大幅增加了采购承诺(Purchase Commits),但看起来你们可能已经跨过了最艰难的投入峰值(Over the hump),而且今年你们可能会产生大约 1000 亿美元的现金流。
坦白说,无论业绩表现多么出色,近期股价似乎并没有太大涨幅。所以我认为,你们应该也觉得现在的股价是回购的大好时机。为什么不直接明确表态,在这里进行一次巨额的股票回购(Share Repo)呢?谢谢。
科莱特·克雷斯:感谢你的提问。我们对资本回报(Capital Return)的审视非常、非常谨慎。
我们始终认为,目前能做的最重要的事情之一,就是全力支持摆在我们面前的这个极其庞大的(Extreme)生态系统。这种支持涵盖了方方面面:从我们的供应商开始,我们需要做大量工作来确保获得必要的供应,并帮助他们提升产能;一直延伸到那些正在我们平台上开发 AI 解决方案的早期开发者。因此,我们(将资金)继续用于战略投资和支持生态系统,仍将是我们流程中非常重要的一部分。
当然,我们的股票回购计划仍在进行中,股息也照常发放。在这一年里,我们会继续寻找合适的契机来执行这些不同的回购操作。
莎拉:最后一个问题来自高盛的吉姆·施耐德。
吉姆·施耐德:感感谢接受我的提问。Jensen,你之前曾勾勒过一个蓝图:到2030 年,全球数据中心的资本支出(CapEx)规模有望达到 3 到 4 万亿美元。这意味着增长率可能会进一步加速,而你对下一个季度的指引也确实体现了这一点。
那么,哪些关键应用领域最有可能驱动这一拐点(Inflection)?是物理 AI(Physical AI)、代理型 AI(Agentic AI),还是其他什么领域?另外,你现在是否依然对这 3 到 4 万亿美元的市场空间抱有信心?
黄仁勋:是的。让我们换个角度,从几个不同的维度来推导一下这个逻辑。
首先,从第一性原理(First Principles)出发:在未来,通过 AI 实现的软件运行模式将由‘代币(Token)’驱动。现在大家都在谈论‘代币经济学’,谈论数据中心产出代币、推理是在生成代币,我们也正在生成代币。比如我们刚提到的英伟达 NVLink 72,它让生成代币的能效比前代提升了 50 倍。可以说,代币生成是未来所有软件和计算的核心。
其次,从需求缺口来看:回顾过去,我们对传统软件的计算需求,仅仅是未来所需算力的冰山一角。AI 已经降临,它不会退场,只会变得更强。过去全球每年在传统计算上的投入大约是 3000 到 4000 亿美元,但现在 AI 时代所需的计算量比以前高出 1000 倍。计算需求正在呈指数级爆发。
只要人们相信 AI 的价值,世界就会投入资金来生产这些代币。我认为全球所需的‘代币生成能力’规模远超7000 亿美元。我非常有信心,我们将继续投资建设算力,因为每一家公司都依赖软件,而每一款软件都将依赖 AI。因此,每家公司都会生产代币,这就是我把它们称为‘AI 工厂’的原因。
如果你是云数据中心的公司,你需要AI工厂来生成tokens,从而产生你的收入。如果你是一家企业软件公司,你也将通过构建在你的工具之上的系统来生成tokens。如果你是一家机器人工厂——而自动驾驶汽车就是第一个明显的例子——你就需要拥有巨大的超级计算机,这些超级计算机本质上就是AI工厂,用来生成tokens,这些tokens被注入你的汽车中,成为它的AI大脑。而且,你还必须在汽车内部安装计算机,来持续不断地生成tokens。因此,我们现在相当确信,这就是计算的未来。
为什么我们如此肯定这是计算的未来?因为以前的软件是‘预录制’的(Pre-recorded),所有内容都是预先编译、预先写好、视频是预先录好的。但现在,一切都是实时生成的(Generative in real-time)。实时生成意味着可以结合个人语境、环境、意图来产生结果,这就是我们所说的代理型 AI(Agentic AI)。这种实时生成所需的计算量远超预录制时代——就像一台电脑的计算能力远超一台只能放预录内容的 DVD 播放机一样。
最后,我们正处于一个拐点。代理型 AI 在过去的 2 到 3 个月内已经迎来了爆发。行业内部其实半年前就预见到了。现在全世界都意识到了代理型 AI 的威力:它们超级聪明,能解决实际问题。比如编程,英伟达的程序员都在大规模使用 Claude Code、OpenAI Codex 或 Cursor 这种代理工具,它们的收入也在飙升(比如 Anthropic 的收入一年翻了 10 倍)。这些公司现在面临严重的‘产能受限’,因为需求太离谱了,代币生成的增长率是指数级的。
算力即收入,推理即收入。这就是我们所说的新工业革命。这种新的计算方式不会走回头路。一旦我们确信生成代币是计算的未来,那么从现在起,算力基建的扩张就会持续下去。
而在‘代理型 AI’这一波浪潮之后,下一波更大的浪潮将是物理 AI(Physical AI),即把这些 AI 系统应用到制造和机器人等物理领域。那将是一个极其巨大的机遇。
Toshiya Hari:好的,问答环节到此结束。最后提醒各位:Jensen将于3月4日出席旧金山摩根士丹利TMT大会的炉边谈话,并于3月16日在圣何塞GTC大会发表主题演讲。2027财年第一季度财报电话会议定于5月20日举行。感谢各位参与本次会议。主持人,请结束本次通话。
莎拉:感谢各位。本次电话会议至此结束,现在可以挂断电话。


