
? 英伟达 (NVDA) 2026财年Q4财报电话会议全纪录:算力即收入,智能体AI时代爆发!
发布时间: 美东时间 2026年2月25日 下午6:31
? 市场数据速览 (截至美东时间2026年2月25日下午3:58)
代码: NASDAQ: NVDA
市值: 4.7万亿美元
当前价格: $195.62
今日涨跌幅: (1.44%) $2.77
? 会议基础信息
会议时间: 美东时间 2026年2月25日(周三)下午5点
参会高管:
黄仁勋 (Jensen Huang) — 总裁兼首席执行官
Colette Kress — 执行副总裁兼首席财务官
Toshiya Hari — 投资者关系副总裁
? 核心亮点 (TAKEAWAYS)
总营收: 680亿美元,同比增长73%,环比增速较第三季度进一步加快。
数据中心营收: 620亿美元,同比增长75%,环比增长22%。主要受Blackwell及Blackwell Ultra系统强劲需求驱动。
全年数据中心营收: 1940亿美元,本财年增长68%;自2023年ChatGPT出现以来,该业务规模已扩大近13倍。
网络业务营收: 本季度110亿美元,同比增长超3.5倍;全年网络业务超310亿美元,较2021财年(收购Mellanox之年)增长超10倍。
主权AI营收: 全年超300亿美元,增长超两倍,主要来自加拿大、法国、荷兰、新加坡和英国。
中国市场: 尽管少量面向中国客户的H200产品获得批准,但未产生相关营收,未来进口情况仍存在不确定性。
游戏业务营收: 37亿美元,同比增长47%,得益于Blackwell的需求和供应改善。
专业视觉营收: 13亿美元,同比增长159%,环比增长74%,首次突破10亿美元大关。
汽车业务营收: 6.04亿美元,同比增长6%,归功于自动驾驶解决方案的需求。
物理AI收入贡献: 物理AI增加了超过60亿美元的年度营收。
自由现金流: 本季度350亿美元,全年共计970亿美元。
资本回报: 410亿美元(占全年自由现金流的43%)通过股票回购和分红返还给股东。
毛利率: 本季度GAAP毛利率为75%;随着Blackwell产能爬坡,Non-GAAP毛利率环比上升至75.2%。
下季度展望: 预计营收780亿美元(±2%),GAAP毛利率预计为74.9%(±50个基点),Non-GAAP毛利率预计为75%(±50个基点);大部分增长预计来自数据中心。
库存: 环比增长8%;为保障供应并应对延续至2027年的长期需求,采购承诺大幅增加。
研发 (R&D): 年度研发预算目前接近200亿美元,以支持代际架构开发和协同设计创新。
Rubin平台发布: 推出六款新芯片,Vera Rubin样品已发货,下半年量产出货计划步入正轨,承诺推理成本比Blackwell低10倍。
重大合作伙伴关系: 值得注意的战略合作包括向Anthropic投资100亿美元,与OpenAI的合作持续扩大,以及与Groq达成的新协议。
? 执行摘要 (SUMMARY)
本次财报电话会议揭示了数据中心和网络业务的超常增长,这得益于客户多样性的扩大、新产品的推出以及强化领导地位的战略——特别是通过Blackwell的快速普及和Rubin平台预出货的早期势头。英伟达表示对未来需求具有极高的可见度,这由庞大的采购承诺和战略投资(包括对Anthropic的100亿美元投资和加深与OpenAI的合作)所支撑。
尽管创纪录的自由现金流实现了大规模的资本回报,但管理层强调在平衡生态系统投资与股东派息方面将继续保持纪律。对下个季度的指引指出,数据中心业务将进一步加速,毛利率将保持稳定,同时预计在游戏领域将面临供应驱动的阻力,此外中国及全球AI市场仍面临持续的监管和竞争不确定性。
黄仁勋断言: “算力即收入 (compute equals revenues)”。这凸显了公司的观点,即AI基础设施投资将直接推动客户收入和对英伟达技术的需求。
科技巨头持续加码: Meta和Anthropic正在部署“数百万个Blackwell和Rubin GPU”,凸显了生成式和智能体AI(Agentic AI)快速普及所塑造的市场格局。
网络需求创纪录: 随着客户将分布式数据中心统一为“集成的吉咖级 (gigascale) AI工厂”,Spectrum X以太网和NVLink架构的需求创下纪录。
物理AI爆发: 涵盖机器人车队和汽车的物理AI应用场景标志着收入基础的拓宽,自动驾驶出租车(robotaxi)的乘车量被描述为“呈指数级增长”。
强大的软件护城河: 英伟达的软件生态系统,尤其是CUDA在Hugging Face上支持“150万个AI模型”,突显了基于开发者和模型多样性的战略护城河。
主权AI前景广阔: 管理层预计,从长远来看,主权AI领域的增长速度至少将与各国GDP中AI基础设施支出的比例持平,这标志着超大规模云服务商之外的长期机遇。
保持高毛利的核心: Kress解释道,“保持我们毛利率的最重要杠杆,实际上是为我们的客户提供跨代际的领先优势。”将未来的盈利能力与创新速度和产品周期执行力联系起来。
? 行业术语库 (INDUSTRY GLOSSARY)
Blackwell架构: 英伟达最新的数据中心GPU平台,专注于高性能AI和加速计算工作负载。
NVLink: 英伟达的高速、低延迟互连技术,可在加速数据中心内实现多GPU的扩展。
Spectrum X以太网: 专为大规模、AI优化的数据中心设计的网络交换平台,支持AI工作负载的集成和扩展。
主权AI (Sovereign AI): 指为满足国家技术和数据要求而构建的、特定国家的专有AI基础设施。
智能体AI (Agentic AI): 能够进行自主、多步骤推理和任务执行的AI系统,支持代码生成和企业自动化等下一代应用。
InferenceX: AI推理性能的行业基准测试套件,在电话会议中被引用以证明架构的领先地位。
Hugging Face: 广泛使用的托管AI和机器学习模型的开放平台/代码库,由英伟达CUDA提供支持。
CUDA: 英伟达的并行计算平台和API,可在各种GPU上实现加速计算。
Rubin平台: 英伟达新推出的全栈AI计算解决方案,为企业和超大规模部署提供下一代CPU、GPU、交换机和网络产品。
MoE模型: 混合专家神经网络 (Mixture-of-Experts),将AI任务分配给专用的子模型,以提高效率和可扩展性。
阿姆达尔定律 (Amdahl’s Law): 计算机架构中的一个原理,指出了并行化的局限性以及对高单线程CPU性能的需求。黄仁勋在提及产品设计战略时引用了该定律。
?️ 财报电话会议实录全文 (Full Conference Call Transcript)
Toshiya Hari (投资者关系副总裁):
大家下午好,欢迎参加英伟达公司2026财年电话会议。今天和我一起参加电话会议的有英伟达公司总裁兼首席执行官黄仁勋,以及执行副总裁兼首席财务官Colette Kress。本次会议正在英伟达公司网站 investors.nvidia.com 上进行网络直播。本次电话会议的内容是英伟达公司的财产,未经事先书面同意,不得复制或转录。在本次电话会议中,我们可能会根据当前的预期做出前瞻性陈述。这些陈述受到许多重大风险和不确定性的影响,我们的实际结果可能会有实质性差异。
有关可能影响我们未来财务业绩和业务的因素的讨论,请参阅今天发布的收益报告中的披露,我们最新的 10-K 和 10-Q 表格,以及我们可能向美国证券交易委员会提交的 8-K 表格报告。我们所有的陈述均基于今天(2026年2月25日)我们目前可获得的信息做出。除法律要求外,我们不承担更新任何此类陈述的义务。在本次电话会议中,我们将讨论非GAAP财务指标。您可以在我们发布在网站上的CFO评论中找到这些非GAAP财务指标与GAAP财务指标的调节表。现在,让我把时间交给Colette。
? 财务及业务运营回顾
Colette Kress (首席财务官):
谢谢Toshiya。我们又交付了一个出色的季度,收入、营业利润和自由现金流均创下历史新高。总营收为680亿美元,同比增长73%,较第三季度加速增长。环比增长也是创纪录的,因为我们在数据中心业务中增加了110亿美元的收入,这些收入来自极其多样且不断扩大的客户群体,包括云提供商、超大规模企业、AI模型制造商、企业和主权国家。对我们Blackwell架构(数据中心规模的极致协同设计)的需求持续增强,因为除了训练之外,推理部署也在不断增长。向加速计算的过渡以及将AI注入现有的超大规模工作负载中,继续推动着我们的增长。
构建在越来越聪明和多模态模型之上的智能体 (Agentic) 和物理AI应用,正开始推动我们的财务表现。
按全年计算,数据中心创造了1940亿美元的收入,同比增长68%。自2023财年ChatGPT出现以来,我们的数据中心业务规模已经扩大了近13倍。展望未来。我们预计整个2026日历年的收入都将实现环比增长,超过我们去年分享的5000亿美元Blackwell和Rubin收入机会中包含的目标。我们相信,我们已经准备好了库存和供应承诺,以应对未来的需求,包括延续到2027日历年的出货量。每个数据中心都受限于电力。考虑到这些限制以及实现AI工厂收入最大化的需求,客户会基于“每瓦性能”做出关键的架构决策。
SemiAnalysis宣布英伟达公司为“推理之王”,因为InferenceX的最新结果强化了我们的推理领导地位:与竞争产品相比,GB300和NVL72实现了高达50倍的每瓦性能和低35倍的每Token成本。此外,对CUDA软件的持续优化帮助在短短四个月内,在GV200和NVL72上实现了高达5倍的性能提升。英伟达公司提供最低的每Token成本,而在英伟达公司上运行的数据中心产生最高的收入。我们的创新步伐,特别是在我们的规模下,是无与伦比的。
得益于接近200亿美元的年度研发预算,以及我们在计算和网络、跨芯片、系统、算法和软件进行极致协同设计的能力,我们打算在每一代产品中实现每瓦性能的指数级飞跃,并长期保持我们的领导地位。
第四季度数据中心收入为620亿美元,同比增长75%,环比增长22%,这主要得益于Blackwell和Blackwell Ultra的持续强劲表现。随着英伟达公司基础设施需求高涨,甚至Hopper和许多六年前基于Ampere架构的产品在云端也已售罄。自我们发布Grace Blackwell GB200 NVL72系统以来,已经过去了将近一年。如今,接近9吉瓦的Blackwell基础设施已部署,并被主要的云服务提供商、超大规模企业、AI模型制造商和企业所消耗。网络业务(我们数据中心级基础设施产品的基石)在本季度表现突出,创造了110亿美元的收入,同比增长超过3.5倍。
对我们的纵向扩展 (scale-up) 和横向扩展 (scale-out) 技术的需求达到了创纪录的水平,两者环比均实现两位数增长。这得益于NVL72横向扩展交换机的强劲采用,因为Grace Blackwell系统占本季度数据中心收入的约三分之二。NVLink纵向扩展架构彻底改变了计算,并展示了在超级计算机和全栈所有芯片之间进行极致协同设计的力量。在第四季度,我们宣布将使AWS能够利用NVLink与其定制芯片进行集成。随着客户致力于将分布式数据中心统一为集成的吉咖级AI工厂,我们的Spectrum X以太网纵向和横向扩展网络的势头十分强劲。
就全年而言,我们的网络业务收入超过310亿美元,与2021财年(我们收购Mellanox的那一年)相比增长了10倍以上。
我们的需求状况是广泛、多样且不断扩大的,已经超越了仅仅是聊天机器人的范畴。首先,正在发生从经典机器学习到生成式AI的根本性平台转变。 超大规模云厂商将庞大的传统工作负载(包括搜索、广告生成和内容推荐系统)升级为生成式AI,并看到了强有力的投资回报率 (ROI) 证据,这鼓励了我们最大的客户加速其资本支出。例如在Meta,其GEM模型的进步推动了Facebook上广告点击量增加3.5倍,并在Instagram上实现了超过1%的转化率提升,从而转化为有意义的收入增长。借助相同的英伟达公司基础设施,Meta超级智能实验室可以训练和部署他们的前沿智能体AI系统。前沿智能体系统已经达到了一个拐点。
Claude Code、Claude Cowork和OpenAI Codex已经实现了实用的智能。采用率正在猛增,且Token是有利可图的,这推动了对扩大算力规模的极端紧迫性。计算直接转化为智能和收入增长。
分析师对前五大云提供商和超大规模企业(他们合计占我们数据中心收入略多于50%)2026年资本支出的预期,自年初以来已增加近1200亿美元,正逼近7000亿美元。我们继续预计,经典数据中心工作负载向GPU加速计算的过渡,以及利用AI增强当今超大规模工作负载,将贡献我们长期机遇的约一半。每个国家都将建设和运营其AI基础设施的一部分,就像今天的电力和互联网一样。
在2026财年,我们的主权AI业务同比增长超过两倍,达到超300亿美元,主要受加拿大、法国、荷兰、新加坡和英国客户的推动。从长远来看,我们预计我们的主权市场机遇将至少与AI基础设施市场同步增长,因为各国在AI上的支出将与其GDP成正比。虽然少量面向中国客户的H200产品已获得美国政府批准,但我们尚未产生任何收入,并且我们不知道是否允许任何产品进口到中国。
我们在中国的竞争对手在近期IPO的推动下取得了进展,并有可能在长期内颠覆全球AI产业的结构。为了维持其在AI计算领域的领导地位,美国必须吸引每一位开发者,并成为包括中国企业在内的每一家商业企业的首选平台。我们将继续与中美两国政府沟通,并倡导美国在世界各地竞争的能力。
上个月我们在CES上发布了Rubin平台,包含六款新芯片:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太网交换机。 该平台将用四分之一的GPU数量来训练MoE模型,并与Blackwell相比将推理Token成本降低多达10倍。本周早些时候,我们向客户发送了首批Vera Rubin样品,我们仍按计划在下半年开始量产出货。基于其模块化、无电缆的托盘设计,Rubin将提供相对于Blackwell更高的弹性和可维护性。我们预计每个云模型构建者都将部署Vera Rubin。
谈谈游戏业务。游戏业务营收37亿美元,同比增长47%,这得益于对Blackwell的强劲需求和供应的改善。GeForce RTX是PC玩家、创作者和开发者的领先平台。在第四季度,我们增加了几项新技术和进展,包括DLSS 4.5(利用AI将游戏视觉提升到一个新水平),以及在领先AI PC框架中将LLM推理速度提高35%。展望未来,虽然对我们产品的终端需求依然强劲,且渠道库存水平健康,但我们预计供应限制将成为第一季度及以后游戏业务面临的不利因素。
专业视觉业务首次突破10亿美元大关,收入为13亿美元,同比增长159%,环比增长74%。 财季内,我们推出了RTX Pro 5000 Blackwell工作站,配备72GB高速显存,专为运行LLM和智能体工作流的AI开发者设计。汽车业务收入为6.04亿美元,同比增长6%,受自动驾驶解决方案强劲需求推动。在CES上,我们推出了Alpamayo,这是世界上第一个开放的推理、视觉、语言、动作模型、仿真蓝图和数据集产品组合,使汽车能够“思考”。首款搭载Alpamayo(基于英伟达Drive系统构建)的乘用车很快将上路,即新款梅赛德斯-奔驰CLA。
物理AI时代已经到来,在2026财年已经为英伟达贡献了超过60亿美元的收入。自动驾驶出租车 (Robotaxi) 的乘车量呈指数级增长,Waymo、Tesla、Uber、WeRide、Zoox等公司的商业车队,预计将在未来十年内从2025年的数千辆规模扩大到数百万辆,创造一个有望产生数千亿美元收入的市场。这种扩张将需要呈数量级增长的算力,每一个主要的OEM和服务提供商都在英伟达的平台上进行开发。
我们通过新的英伟达Cosmos和Isaac GR00T开放模型和框架,以及由英伟达驱动的机器人和自主机器,继续推进机器人技术的开发,合作伙伴包括波士顿动力、卡特彼勒、发那科、LG电子和Neurorobotics。为了加速工业物理AI的采用,我们还宣布扩大与达索系统、西门子和新思科技的合作,将英伟达的AI基础设施、Omniverse数字孪生、世界模型和CUDA-X库带给数以百万计构建世界工业的研究人员、设计师和工程师。
接下来看损益表 (P&L) 的其他部分。GAAP毛利率为75%,Non-GAAP毛利率为75.2%,随着Blackwell继续爬坡,毛利率环比上升。GAAP运营费用环比增长16%,Non-GAAP基础上增长21%,主要与新产品导入以及计算和基础设施成本有关。第四季度Non-GAAP有效税率为15.4%,低于我们对该季度的预期,主要由于一次性税收优惠的影响。库存环比增长8%,同时购买承诺也大幅增加,因为我们已战略性地确保了库存和产能,以满足未来几个季度之后的需求。这比通常的时间规划更长远,反映了我们拥有的更长的需求可见度。
尽管我们预计我们先进架构的供应紧张仍将持续,但凭借我们的规模、广阔的供应链以及长期合作伙伴关系继续为我们提供良好支持,我们仍然对抓住未来的增长机会充满信心。我们在第四季度产生了350亿美元的自由现金流,在2026财年产生了970亿美元的自由现金流。本年度,我们以股票回购和分红的形式,向股东返还了410亿美元,占自由现金流的43%。我们将继续投资于我们的技术和生态系统以培育市场发展、推动长期增长,并最终产生优于市场或同行的总股东回报。
重要的是,我们将继续在投资方面执行战略性和自律性的流程,并且我们仍然致力于向股东返还资本。
现在让我谈谈第一季度的财务展望。从本季度开始,我们将在非GAAP业绩中包含股票薪酬费用。股票薪酬是我们薪酬体系中吸引和留住世界级人才的基础组成部分。首先从收入开始,总营收预计为780亿美元,上下浮动2%。 我们预计绝大部分增长将由数据中心业务驱动。与上个季度一致,我们在展望中没有假设来自中国的任何数据中心计算收入。GAAP和Non-GAAP毛利率预计分别为74.9%和75%,上下浮动50个基点。对于全年,我们继续预计毛利率在中70%左右。
随着我们准备过渡到Vera Rubin,我们会随时向您通报最新进展。GAAP和Non-GAAP运营费用预计分别约为77亿美元和75亿美元,其中包括19亿美元的股票薪酬费用。对于2027整个财年,我们预计GAAP和Non-GAAP税率在7%到19%之间,不包括任何离散项目和税务环境的重大变化。现在,我把时间交给Jensen。我想他有几句话要对我们说。
? 首席执行官寄语与前瞻
Toshiya Hari: 本季度,我们大大深化和扩大了与领先的前沿模型制造商的合作伙伴关系。
黄仁勋 (Jensen Huang):
我们最近庆祝了OpenAI发布GPT-5.3 Codex,它在Grace Blackwell和NVLink 72系统上进行训练和推理。GPT-5.3 Codex可以承担涉及研究、工具使用和复杂执行的长时间运行的任务。5.3 Codex在英伟达内部得到了广泛部署。我们的工程师非常喜欢它。我们继续与OpenAI推进合作协议的达成,并相信我们已经接近目标了。我们对与OpenAI持续的合作感到非常兴奋,这是一家难得一见的世代级公司,从他们创立的第一天起,我们就有幸与他们合作。
Meta超级智能实验室正在以闪电般的速度扩大规模。上周,我们宣布Meta正在部署数以百万计的Blackwell和Rubin GPU、英伟达CPU以及Spectrum X以太网进行训练和推理。
本季度,我们宣布了与Anthropic的合作伙伴关系,并对其进行了100亿美元的投资。Anthropic将在Grace Blackwell和Vera Rubin系统上进行训练和推理。Anthropic的Claude Cowork智能体平台具有革命性意义,并开启了企业级AI应用的闸门。在Claude Cowork和OpenAI的双重驱动下,对计算的需求正在猛增,智能体AI(Agentic AI)的“ChatGPT时刻”已经到来。
通过与Anthropic、Meta、OpenAI和xAI等展开合作伙伴关系,英伟达已部署在每一朵云中,凭借我们从头构建全栈AI基础设施或在云端支持它们的能力,我们在每个阶段——训练、推理和AI工厂横向扩展——都处于与前沿模型构建者合作的独特有利地位。
最后,我们最近与Groq就其低延迟推理技术签订了一项非许可协议,并欢迎了一批出色的工程师加入英伟达。正如我们在Mellanox所做的那样,我们将用Groq的创新来扩展英伟达的架构,以实现AI基础设施性能和价值的新水平。我们期待在下个月的GTC大会上分享更多信息。交还给K(Colette)。
❓ Q&A 问答环节摘要
Toshiya Hari: 现在开始提问环节。接线员,请接入提问。
Sarah (接线员): 此时,我想提醒大家,如果要提问,请在您的电话键盘上按星号,然后按数字1。您的第一个问题来自美国银行证券的Vivek Arya。
Vivek Arya (美国银行证券): 谢谢接受我的提问。您刚才提到,你们现在对2027日历年也有了增长可见度,我想你们的采购承诺反映了这种信心。但是,Jensen我很好奇,当您看到顶级云客户今年云资本支出接近7000亿美元时,许多投资者担心这一水平很难在明年继续增长,而且对其中几个客户来说,他们产生现金流的能力也在受到压缩。我知道您对自己的产品路线图以及采购承诺等非常有信心。但您对客户继续增长其资本支出的能力有多大信心?如果他们的资本支出不增长,英伟达能在那个范围内找到继续增长的方法吗?谢谢。
黄仁勋:
我对他们现金流的增长充满信心。原因很简单。我们现在已经看到了智能体AI (Agentic AI) 的拐点,以及智能体在世界各地和各类企业中的实用性。因为这一点,你看到了令人难以置信的计算需求。在这个AI的新世界里,算力就是收入 (compute is revenues)。 没有计算,就无法生成token。没有token,就无法增加收入。因此,在这个AI的新世界里,算力等于收入。我确信,目前虽然有适度的计算机投入,我们称之为3000亿或4000亿美元的现金。很好。谢谢。
(中间存在因信号或记录原因导致的句子碎片化,大意为讨论战略投资与OpenAI,以及英伟达全栈平台的无处不在)
对于这个模型,还有在英伟达平台上合作。我们在每个云里。我们在每个中心。我们遍布全世界。边缘节点以及数十个AI原生应用都建立在AI生态系统之上。用于语言、物理AI或AI物理学。所有这些生态系统都将构建在英伟达之上。对整个堆栈的生态系统进行投资。当然,这比过去更加确信。因为我们计算其每一个方面。并深入到AI模型中。就像我之前提到的,向上扩展 (Scale up)。Scale up。GPU,节点,以及每一个。
我们确实做到了。机架真的是不可思议的。我们当然也非常喜欢低工作量。有些人想将以太网与人工智能集成,以一种令人难以置信的方式。我们的Spectrum X性能真正展示了这一点。为您的数据中心打造的十亿美元级AI工厂,这就是英伟达网络业务真正的核心(Boston Interface)。每次跨越一个接口,都会增加延迟,增加不必要的功耗。我们对“Violet”不过敏。我们已经在使用。但我们尽力这样做。因此,当你看Grace Blackwell架构和Rubin架构时,使用了双重激进限制连接到底部,从而减少了架构的复杂性。对比竞争对手。
如果您看看我们的软件优势,就会发现软件的起点和架构的终点很难区分。它是——我们的软件之所以有效,是因为我们的架构太优秀了。因此,CUDA架构毫无疑问更有效、更高效,我是指每FLOP每瓦性能。代代相传的架构将使所有的GPU都受益。因此,我们将继续这样做,它使我们能够延长使用寿命,让我们拥有创新的灵活性和速度,这会转化为——而且非常重要——客户的性能。
所以我们将如何处理Groq——你们会在GTC上看到——但我们要做的就是用Groq作为加速器来扩展我们的架构,就像当年扩展带有Mellanox的英伟达架构一样。
Sarah: 下一个问题来自Stacy Rasgon。
Stacy Rasgon: 谢谢接受提问。
Colette Kress (代替回答或直接补充):
这是一个非常棒的架构,希望今天迅速建立起来,并且已经计划在不同客户的不同订单中确定下半年初期爬坡的启动方式。至于融合,考虑到强劲的需求,目前对我们来说知道这些还为时过早。我们会尽快回复您。
Sarah: 您的下一个问题来自花旗银行的Atif Malik。
Atif Malik (花旗银行): 谢谢接受我的提问。Jensen,随着越来越多针对AI的投资流向推理工作负载,您能谈谈CUDA的重要性吗?
黄仁勋:
整个堆栈,从我们引入的TensorRT-LLM(最高性能的推理堆栈),为NVL进行优化,需要我们发现并发明基于CUDA之上的新并行化算法。是为了分配工作负载和推理,充分利用聚合能力。所以这些系统,这些智能体系统,正在衍生出不同的智能体,与团队一起工作,正在生成的Token数量真的、真的呈指数级增长。所以我们需要以更高的速度进行推理。当你以更高的速度进行推理时,而且每一个Token都是以美元计价的,它就直接转化为了收入。所以,这等同于我们客户的收入。
数据中心,将吉瓦级别的电力直接转化为收入。所以你可以看到,每个云服务提供商 (CSP) 现在都明白了这一点,每个超大规模企业都明白了。资本支出转化为算力。采用正确架构的算力转化为收入最大化,算力等于收入。如果今天不投资产能,如果不投资计算,收入就不可能增长。我认为大家都明白这一点。算力等于收入。架构极其重要。它现在已经不仅仅是战略层面的事了。它直接影响他们的盈利。选择正确的架构,即每瓦性能最佳的架构,毫不夸张地说就是一切。
Sarah: 下一个问题来自Melius Research的Ben Reitzes。
Ben Reitzes (Melius Research): 嘿,谢谢。首先,我想对你们将股票薪酬纳入Non-GAAP表示赞赏。我认为这很棒。关于毛利率——长期的毛利率通常在70%中段——我们能否将你们对2027日历年供应可见度的看法,解读为这种毛利率直到那时都是可持续的?另外,Jensen,在那之后呢?你们是否有在内存消耗方面的创新可以公布,让我们对长期保持这一毛利率水平的能力更有信心?
Colette Kress:
维持我们毛利率唯一也是最重要的杠杆,实际上是向我们的客户提供跨代际的领先优势。这是最重要的事情。如果我们在代际更替中提供的每瓦性能能大幅超越摩尔定律所能做到的,如果我们提供的“每美元性能”大幅超过我们系统的成本和系统价格,那么我们就能继续维持我们的毛利率。这是最简单也是最重要的概念。
我们移动如此之快的原因在于,第一,由于我们所经历的拐点,全球对Token的需求现在呈完全的指数级增长。我认为我们都看到了这一点。到了什么程度?即便是我们在云端有六年历史的老GPU,人们都完全担心价格会上涨。所以我们知道,现代软件开发方式所需的计算量、算力正在呈指数级增长。因此,我们的战略是每年提供一个完整的AI基础设施。今年,我们推出了六款新芯片。Rubin下一代,我们每一代都会这样做。我们致力于提供每瓦性能和每美元性能的倍数级提升。这种步伐,以及我们进行极致协同设计的能力,使我们能够向客户交付价值和收益。
关于我们的价值交付,这是唯一最重要的事情。
Toshiya Hari: 下一个问题来自New Street Research的Antoine Chiketan。
Antoine Chiketan (New Street Research): 谢谢。我想问一下你们的一些客户正在考虑的太空数据中心。您认为它的可行性有多高?时间表是什么样的?目前的经济效益如何?随着时间推移您认为它将如何演变?
黄仁勋:
目前的经济效益很差,但随着时间的推移会得到改善。如你所知,太空中的运作方式与我们在地球上的运作方式截然不同。那里有充足的能源,但太阳能电池板体积庞大。不过太空中有很多空间。散热方面,太空很冷。然而,那里没有空气流动,所以散热的唯一方式是通过热传导。你需要制造的散热器相当大。液冷显然是不可能的,因为它很重,且...具有抗性。
因此,我们在地球上使用的方法与我们在太空中会采用的方法略有不同。但许多不同的前沿模型确实需要在太空中完成。所以MPS已经是太空中第一个GPU,Hopper也在太空中。太空中GPU最好的用例之一就是成像。
能够在极高分辨率下进行成像,当然要使用光学和人工智能,能够计算不同角度的重投影,能够提升分辨率、降噪,快速并大规模地在高分辨率下进行成像。要把PB级的成像数据传回地球再进行处理是非常困难的。更容易的做法是直接在太空中进行处理。然后忽略收集到和处理过的所有数据,直到你看到有趣的东西。因此,太空中的人工智能将具有非常好的、非常有趣的应用。
Toshiya Hari: 下一个问题来自Evercore ISI的Mark Zapakos。
Mark Zapakos (Evercore ISI): 谢谢。我想接续一下您在发言稿中的评论。我相信,Colette,您说超大规模云企业占收入的50%以上,但增长是由您其余的数据中心客户引领的。只是澄清一下,这是否意味着您的非超大规模客户增长得更快?如果是这样,他们做的事情和超大规模企业一样吗,还是规模不同?您是否预计有一天非超大规模企业会成为您业务的更大部分?
黄仁勋:
我们的前五大客户,正如我们所说,是我们的云服务商 (CSP) 或超大规模企业,约占50%。是我们正在合作的公司类型。它涵盖了我们的AI模型制造商、我们平台上的提供商,现在我们也看到了遍布全球的极端多样性的客户。在这个生态系统中看到这种多样性将带来极大益处。
Colette Kress (补充):
目前我们的技术在每一朵云和边缘节点都可用。我们现在正在培育电信领域。它也将成为一个计算平台。这是一个必然结论,但必须要有人去发明使之成为可能的技术。我们创造了技术——我们创建了一个名为Ariel的平台来做这件事。还有每一辆自动驾驶汽车。
我们的能力——CUDA的能力——一方面能受益于GPU内Tensor Cores等专用处理器的性能优势,另一方面,CUDA的灵活性让我们能够解决语言问题、计算机视觉问题、机器人问题、生物学问题、物理学问题,以及几乎所有种类的AI和计算算法。
因此,我们客户群的多样性是我们拥有的最大优势之一。其次,当然,如果没有我们自己的生态系统,即使我们的处理器是可编程的,如果我们不培养我们的生态系统——比如谈到我们今天正在做的一些事情,投资于我们未来的生态系统和现在的生态系统——没有我们的生态系统,我们很难超越为别人家的生态系统争取到的设计订单。所以,正是因为我们创造了这个平台,我们才能迅速地发展和扩大我们的生态系统。
最后,非常重要的一点是我们与OpenAI、Anthropic、xAI、Meta的合作伙伴关系,现在几乎被世界上每一个开源项目所测试并支持。在Hugging Face上有150万个AI模型,所有这些都在英伟达CUDA上运行。所以所有开源项目的总和,可能代表了世界上最大的——第二大的——模型(OpenAI是最大的,第二大可能就是所有开源模型的集合)。所以,英伟达运行所有这些模型的能力,使得我们的平台具有极强的通用性、极易使用,并且投资起来非常安全。
这就造就了客户的多样性和平台的多样性,并且可以在每个国家/地区使用,因为你知道,我们支持全世界的生态系统。
Toshiya Hari: 下一个问题来自Wells Fargo的Aaron Rakers。
Aaron Rakers (富国银行): 谢谢。还是关于平台和极致协同设计,关于英伟达将Vera CPU作为独立解决方案推向市场的能力或举措,有一些新闻报道。Jensen,在我们向前迈进的过程中,你们在架构演变中的地位有多重要?这更多是受工作负载激增或异构性的驱动吗?你如何看待它对英伟达的演变,特别是关于独立的CPU?
黄仁勋:
谢谢。在下个月的GTC大会上,我会告诉大家更多关于它的信息。但在最高层面上,我们在CPU上做出了与世界上其他CPU根本不同的架构决策。它仅支持LPDDR5。它的设计专注于非常高的数据处理能力。原因是,我们感兴趣的大多数计算问题都是数据驱动的。人工智能就是其中之一。而它的单线程性能以及带宽的比例,简直好得离谱。
我们做出这些架构决定是因为,在AI的整个阶段,从数据处理——在进行训练之前——你必须进行数据处理。所以你有数据处理,预训练,然后是后训练。现在AI正在学习如何使用工具。许多工具要么在纯CPU环境中运行,要么在CPU或GPU加速的环境中运行。Vera被设计为用于后训练(post-training)的优秀CPU。因此,人工智能整个流水线中的一些用例包括使用大量CPU。你知道,我们既喜欢GPU,也喜欢CPU。当你将算法加速到极限时(正如我们所做的),阿姆达尔定律表明,你需要非常非常快的单线程CPU。这就是我们构建Grace架构,使其单线程性能异常出色的原因。而Vera比那还要出色得多。
Tim Arcuri (问题跳跃,未播报机构名): 非常感谢。我想问问关于资本部署的问题。我知道你们大幅提高了采购承诺,但听起来你们可能已经度过了高峰期,今年你们可能会产生大约1000亿美元的现金。几乎无论业绩有多好,股价都没有怎么涨。所以我认为你们可能会觉得,现在这个价格用来大量回购股票是相当不错的。为什么不立个大旗,在这里进行一次巨大的股票回购呢?谢谢。
Colette Kress:
谢谢你的问题。我们非常仔细地审视我们的资本回报。并且我们确实认为,我们能做的最重要的事情之一,就是真正支持我们面前极为庞大的生态系统。这涵盖了方方面面,从我们的供应商,到为确保我们能够获得所需供应、在产能上帮助他们所做的工作。一直到我们在平台上成为早期AI解决方案开发者。因此,我们将继续使之成为我们流程中非常重要的一部分。还有战略投资。
但当然,我们仍在回购我们的股票。我们仍在派发股息。我们将在年内继续寻找合适、独特的机会来进行这些不同的购买。
Sarah: 你们的最后一个问题来自高盛的Jim Schneider。
Jim Schneider (高盛): 谢谢。Jensen,您之前曾勾勒过到2030年数据中心资本支出达到3万亿到4万亿美元的潜力,这意味着增长率可能会加速,您已经指引至少下一个季度会加速。哪些关键应用领域最有可能推动这种拐点?是物理AI、智能体AI,还是其他什么?您仍然看好那个3万亿到4万亿美元的预测吗?
黄仁勋:
是的。让我们退后一步,从几个不同的角度来推理一下。首先从第一性原理来看。未来使用人工智能进行软件开发的方式是受Token驱动的。我想大家都在谈论代币经济学(tokenomics),谈论数据中心生成Token,推理也是关于生成Token的,而我们正是负责生成Token。我们现在讨论的都是Token。英伟达的NVLink 72如何使我们生成Token时的每单位能源性能比上一代提高50倍。因此,Token生成是几乎所有与未来软件相关和计算相关的核心。
看看我们过去使用计算的方式,过去软件所需的计算量,与未来所需的相比,只是极其微小的一小部分。AI来了,AI不会倒退,AI只会从现在开始变得更好。所以如果你思考一下,你会说,好吧,世界过去每年投资大约3000亿到4000亿美元在经典计算上。而现在AI来了。所需的计算量比我们过去进行计算的方式高出一千倍。计算需求就是高得多。
因此,如果我们继续相信其中的价值,并且世界将会投资去生产那些Token。世界需要的Token生成能力远远不止7000亿美元。我相当有信心,我们将继续生成Token。我们将从现在起继续投资计算能力。根本原因在于,每家公司都依赖软件,每一个软件都将依赖AI。因此每家公司都将产生Token。这就是我称它们为AI工厂的原因。
无论你是一家在云数据中心的公司,你拥有AI工厂为你的收入生成Token;还是你是一家企业软件公司,你要为你在工具之上的系统生成Token;再或者你是一个机器人制造厂——自动驾驶汽车是它的第一个迹象——你拥有巨大的超级计算机(本质上就是AI工厂)来生成Token输入到你的汽车中,这就成了它的AI。然后你还得把电脑放在车里,持续不断地生成Token。因此,我们现在相当确定这就是计算的未来。
为什么这么确定这就是计算的未来?原因在于,过去我们制作软件的方式是“预先录制”的。一切都是先验捕获的。我们预编译软件。我们预写内容。我们预录视频。但现在一切都是实时的生成式。 当它是实时生成的时候,它可以将人的背景、情境、查询以及意图都纳入考虑,以生成这种新软件——我们称之为AI,智能体AI(agentic AI)——的结果。因此,所需的计算量远远大于“预先录制”。
就像一台计算机的计算能力远远超过一台播放预先录制内容的DVD播放器一样,人工智能需要的计算能力也远大于我们过去制作软件的方式。
从行业的层面来看,因为我们所有公司最终都是由软件驱动的,云公司是由软件驱动的。如果新软件需要生成Token并且Token能够被货币化,那么很明显,他们数据中心的建设直接推动了他们的收入。所以算力驱动收入。我想他们都明白这一点。我想人们也越来越开始明白这一点。
最后,AI为世界带来的利益最终必须产生收入。我们正在亲眼见证——就在我们站在这里的时候正在发展——智能体AI已经到了一个拐点。它几乎就是在过去两三个月里发生的。当然,在行业内部,我们已经看到一段时间了——大概六个月左右。但世界现在已经觉醒于智能体AI的拐点。这些智能体超级聪明。它们正在解决真正的问题。
编写代码显然已经得到了智能体系统的支持,我们在英伟达的所有程序员都在极大地使用这些系统——无论是Claude Code还是OpenAI Codex,通常是两者都在用,还有Cursor,有时是这三个都在用,取决于用例。他们拥有智能体、协同设计伙伴、工程伙伴来帮助他们解决问题。你可以看到他们的收入飙升。你知道,这些公司,以Anthropic为例,我认为他们的收入在一年内翻了十倍。他们严重受限于产能,因为需求实在是不可思议。Token的需求是惊人的。Token的生成率正在呈指数级增长。当然,OpenAI也是如此,他们的需求令人难以置信。
所以他们能上线越多的算力,他们的收入增长得就越快。这就回到了我刚才所说的话,在这个新世界里,推理就是收入,算力等于收入。在很多方面,这就是为什么我们说这是一场新的工业革命。正在建造新的工厂,新的基础设施,这种新的计算方式不会退缩。
因此,只要我们相信生成Token将是计算的未来(这也是我所相信的,也是行业普遍相信的),那么我们将从现在开始继续建设这种能力并从这里扩张。
我们现在看到的这波浪潮是智能体AI (Agentic AI) 的拐点,而其后的下一个拐点将是物理AI (Physical AI),即我们将AI和这些智能体系统带入物理应用中,如制造业、如机器人技术。因此,这前面是一个巨大的机遇。
Toshiya Hari: 好的。问答环节到此结束。最后,请注意,Jensen将于3月4日在旧金山举行的摩根士丹利TMT会议上参加炉边谈话。他还将于3月16日在圣何塞举行的GTC上发表主题演讲。我们讨论2027财年第一季度财报结果的财报电话会议定于5月20日举行。感谢大家今天加入我们。接线员,请结束通话。
Sarah: 谢谢。今天的电话会议到此结束。您现在可以挂断电话了。


