内容目录
业务陈述:与竞品相比,GB300和NVL72实现高达50倍的每瓦性能提升,以及35倍的每token成本降低
Q4营收达680亿美元,同比增长73%;全年数据中心收入达1940亿美元,增长68%
与竞品相比,GB300和NVL72实现高达50倍的每瓦性能提升,以及35倍的每token成本降低
Q4网络业务营收达110亿美元,同比增长逾3.5倍,全年收入破310亿美元,较2021财年增长逾10倍
AI需求广泛、多样且持续扩展,已超越聊天机器人领域,渗透传统工作负载;2026财年主权AI业务同比增长逾三倍,突破300亿美元
上月在CES发布的Rubin平台,训练MoE模型所需GPU数量仅为Blackwell的四分之一,推理token成本最高可降低10倍
物理AI已然到来,在2026财年为英伟达贡献了超过60亿美元的营收
Q4毛利率为75%,小幅环比提升;单季度自由现金流达350亿美元,全年自由现金流累计970亿美元
业绩指引:Q1收入预计780亿美元,波动幅度2%以内;预计GAAP毛利率74.9%,波动50个基点
NVIDIA已成为所有主要前沿模型(OpenAI、Meta、Anthropic、xAI等)的核心基础设施提供者,已部署于所有云平台
分析师问答:当前Agentic AI拐点已至,下一个浪潮是物理AI,两者叠加将驱动计算需求指数级爆炸,而英伟达定位为token生成基础设施的绝对领导者
对客户现金流增长充满信心,已见证智能体AI的拐点,以及智能体在全球企业中的实用价值;在AI新世界,计算等同于收入
英伟达的核心本质在于生态系统的丰富性,正构建语言AI、物理AI、生物AI、制造业/机器人AI等多领域完整AI生态
我们开创了机架级计算机概念,不销售计算机节点,而是销售整套计算机机架,英伟达已是全球最大的以太网网络公司
CUDA赋予基础设施非凡灵活性,所有GPU保持架构兼容性,为Blackwell优化的模型/软件堆栈,也能惠及Hopper、Ampere等
Rubin量产爬坡在下半年启动,市场对Rubin需求强劲且浓厚,预期几乎所有客户都将采购
所有数据中心均受电力上限限制,采用正确架构的计算能力最大化收入,已从战略问题变为生存之道,选择每瓦性能最优的架构已成为一切关键
毛利率最重要的杠杆是为客户创造代际领先优势,“每瓦性能代际突破+每美元性能远超系统成本的突破”是维持高毛利率的核心理念
Hopper显卡现已进入太空,太空GPU最佳应用场景之一是成像技术
前五大客户收入占比达50%,但源于"CUDA生态的普适性+全栈覆盖”的客群多样化也是核心优势,且绑定顶级模型开发者和开源社区
英伟达对CPU架构的决策与全球其他CPU厂商截然不同,Vera是唯一支持LPDDR5的数据中心CPU,设计核心是实现极高的数据处理能力
对资本回报进行极其审慎的评估,当前最重要的是全力支持所处的极端生态系统,保障供应链稳定、产能提升及作为AI解决方案的早期开发者提供支持
当前Agentic AI拐点已至,下一个浪潮是物理AI,两者叠加将驱动计算需求指数级爆炸,而英伟达是token生成基础设施的绝对领导者
关于我们
业务陈述:与竞品相比,GB300和NVL72实现高达50倍的每瓦性能提升,以及35倍的每token成本降低
Q4营收达680亿美元,同比增长73%
全年数据中心收入达1940亿美元,增长68%
科莱特·克雷斯 - 执行副总裁兼首席财务官:
我们又交出了一份亮眼的季度成绩单,营收、营业利润和自由现金流均创下历史新高。
总营收达 680 亿美元,同比增长 73%,增速较第三季度进一步提升。环比增长同样创下历史新高,数据中心业务新增营收 110 亿美元,客户群体持续多元化扩张,涵盖云服务提供商、超大规模企业、人工智能模型开发者、大型企业和主权国家。
随着推理部署在训练之外持续增长,我们 Blackwell 架构(数据中心级极端协同设计)的需求持续增强。向加速计算的转型以及人工智能在现有超大规模工作负载中的深度融合,持续推动着我们的增长。基于日益智能且多模态模型构建的智能代理与物理人工智能应用,正开始推动我们的财务业绩。
全年数据中心业务收入达 1940 亿美元,同比增长 68%。自 2023 财年 ChatGPT 问世以来,我们已将数据中心业务规模扩大近 13 倍。展望未来,我们预计 2026 年全年收入将持续环比增长,超越去年披露的 5000 亿美元 Blackwell 和 Rubin 收入潜力预期。
我们已建立库存与供应承诺体系以满足未来需求,包括延伸至 2027 日历年的出货计划。当前所有数据中心均面临电力限制,客户在这些约束条件下需基于每瓦性能做出关键架构决策,以实现人工智能工厂收入最大化。
与竞品相比,GB300和NVL72实现高达
50倍的每瓦性能提升,以及35倍的每token
成本降低
SemiAnalysis 宣布英伟达公司成为推理之王,InferenceX 的最新成果进一步巩固了我们在推理领域的领导地位:与竞品相比,GB300 和 NVL72 实现了高达 50 倍的每瓦性能提升,以及 35 倍的每 token 成本降低。
通过持续优化 CUDA 软件,GV200 和 NVL72 在短短四个月内实现了高达 5 倍的性能提升。英伟达公司提供最低的每 token 成本,基于英伟达架构的数据中心创造最高收益。
我们的创新速度——尤其是在如此规模下——无可匹敌。凭借近200亿美元的年度研发预算,以及我们在计算与网络领域横跨芯片、系统、算法和软件的极致协同设计能力,我们致力于每代产品都实现性能功耗比的突破性飞跃,并长期巩固领先地位。
第四季度数据中心营收达 620 亿美元,同比增长 75%,环比增长 22%,主要得益于 Blackwell 架构的持续强劲表现及 Blackwell Ultra 架构的量产推进。随着英伟达公司基础设施需求激增,就连 Hopper 架构产品及多数六年前推出的 Ampere 架构产品在云端均已售罄。
自 Grace Blackwell GB200 NVL72 系统发布至今已近一年。目前全球主要云服务提供商、超大规模企业、AI 模型开发者及企业客户已部署近 9 吉瓦的 Blackwell 架构基础设施。
Q4网络业务营收达110亿美元,同比增长
逾3.5倍,全年收入破310亿美元,较2021
财年增长逾10倍
作为数据中心级基础设施的基石,网络业务本季度表现尤为亮眼,营收达 110 亿美元,同比增长逾 3.5 倍。
我们纵向扩展和横向扩展技术的需求达到创纪录水平,环比均实现两位数增长,这主要得益于 NVL72 纵向扩展交换机的广泛采用——本季度 Grace Blackwell 系统贡献了数据中心收入的约三分之二。NVLink 纵向扩展架构彻底革新了计算领域,彰显了超级计算机所有芯片及全栈架构协同设计的强大实力。
第四季度,我们宣布将支持 AWS 通过 NVLink 集成其定制芯片。随着客户致力于将分布式数据中心整合为集成化的千兆级 AI 工厂,Spectrum X 以太网纵向扩展与横向扩展网络技术正呈现强劲发展势头。
全年网络业务收入突破 310 亿美元,较 2021 财年(我们收购 Mellanox 的年份)增长逾十倍。
AI需求广泛、多样且持续扩展,已超越聊天
机器人领域,渗透传统工作负载;2026财年
主权AI业务同比增长逾三倍,突破300亿美元
我们的需求范围广泛、多样且不断扩展,已超越聊天机器人领域。
首先,行业正经历从传统机器学习向生成式人工智能的根本性平台转型。
随着超大规模企业将海量传统工作负载(包括搜索、广告生成和内容推荐系统)升级至生成式 AI,强劲的投资回报率数据正推动我们的主要客户加速资本支出。
例如 Meta 公司通过 GEM 模型升级,使 Facebook 广告点击量提升 3.5 倍,Instagram 转化率增长逾 1%,直接转化为显著的营收增长。依托 NVIDIA 基础设施,Meta 超级智能实验室得以训练并部署前沿智能体 AI 系统。当前智能体系统已迎来发展拐点。
Claude Code、Claude Cowork 和 OpenAI Codex 已实现实用级智能。应用普及率呈爆发式增长,token 收益丰厚,这催生了对计算能力扩容的极端迫切需求。计算能力直接转化为智能水平提升与营收增长。
分析师对五大云服务商及超大规模企业 2026 年资本支出的预期,自年初以来已增长近 1200 亿美元,目前逼近 7000 亿美元。这些企业合计贡献了我们数据中心收入的 50%以上。
我们仍预期传统数据中心工作负载向 GPU 加速计算的迁移,以及运用人工智能增强现有超大规模工作负载的趋势,将共同贡献我们约一半的长期机遇。
正如当今电力和互联网基础设施的建设与运营模式,每个国家都将自主构建并运营部分人工智能基础设施。
在 2026 财年,我们的主权人工智能业务同比增长逾三倍,突破 300 亿美元大关,主要得益于加拿大、法国、荷兰、新加坡和英国等地的客户支持。
从长期来看,随着各国将 AI 支出与 GDP 挂钩,我们预计主权业务机遇的增长至少将与 AI 基础设施市场持平。
尽管美国政府已批准少量 H200 产品出口给中国客户,但我们尚未产生任何收入,且尚不清楚是否允许该产品进口中国。
中国竞争对手借助近期 IPO 融资正稳步推进,长期来看可能颠覆全球人工智能产业格局。
为维持在人工智能计算领域的领先地位,美国必须吸引所有开发者,成为包括中国企业在内的全球商业机构的首选平台。
我们将持续与中美两国政府保持沟通,全力维护美国在全球范围内的竞争优势。
上月在CES发布的Rubin平台,训练MoE
模型所需GPU数量仅为Blackwell的四分
之一,推理token成本最高可降低10倍
我们上月在 CES 上发布了 Rubin 平台,该平台包含六款新芯片:Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 以太网交换机。
该平台训练 MoE 模型所需的 GPU 数量仅为 Blackwell 平台的四分之一,推理 token 成本最高可降低 10 倍。
本周初我们已向客户交付首批 Vera Rubin 样品,并按计划将于下半年启动量产出货。
凭借模块化无线缆托盘设计,Rubin 将比 Blackwell 提供更强的弹性和可维护性。我们期待所有云端模型构建者都能部署 Vera Rubin。
物理AI已然到来,在2026财年为英伟达
贡献了超过60亿美元的营收
转向游戏业务。
游戏营收达 37 亿美元,同比增长 47%,主要得益于 Blackwell 芯片的强劲需求和供应能力的提升。GeForce RTX 已成为 PC 玩家、内容创作者和开发者的首选平台。
第四季度我们推出多项新技术与升级,包括运用 AI 技术将游戏视觉效果提升至全新高度的 DLSS 4.5,以及在主流 AI PC 框架中实现 35%加速的 LLM 推理性能。
展望未来,尽管终端需求持续强劲且渠道库存水平健康,但我们预计供应限制将成为第一季度及后续游戏业务发展的阻力。
专业可视化业务首次突破 10 亿美元大关,实现营收 13 亿美元,同比增长 159%,环比增长 74%。
本季度,我们推出了 RTX Pro 5000 Blackwell 工作站,配备 72GB 高速内存,专为运行大型语言模型和智能体工作流的 AI 开发者打造。
汽车业务收入达 6.04 亿美元,同比增长 6%,主要得益于自动驾驶解决方案的强劲需求。
在 CES 展会上,我们推出全球首个开放式推理、视觉、语言、动作模型、仿真蓝图及数据集组合——Alpamayo,助力打造具备思考能力的车辆。
基于英伟达 Drive 平台打造的首款搭载 Alpamayo 的乘用车——全新梅赛德斯-奔驰 CLA 即将亮相公路。
物理 AI 已然到来,在 2026 财年为英伟达公司贡献了超过 60 亿美元的营收。
自动驾驶出租车出行量呈指数级增长,Waymo、特斯拉、优步、网约车、Zoox 等企业的商用车队规模预计将在未来十年从 2025 年的数千辆扩展至数百万辆,催生出一个有望创造数千亿美元收入的市场。
这种扩张将需要数量级提升的计算能力,所有主要汽车制造商和运营商都在基于英伟达公司的平台进行开发。
我们持续推动机器人技术发展,推出全新的 NVIDIA Cosmos 和 Isaac GR00T 开源模型与框架,并为波士顿动力、卡特彼勒、发那科机器人、LG 电子和神经机器人等领先企业提供基于 NVIDIA 技术的机器人与自主设备。
为加速工业物理 AI 应用,我们还宣布与达索系统、西门子和新思科技建立新的扩展合作关系,将英伟达 AI 基础设施、Omniverse 数字孪生、世界模型和 CUDA-X 库带给数百万正在构建全球产业的研究人员、设计师和工程师。
Q4毛利率为75%,小幅环比提升
单季度自由现金流达350亿美元
全年自由现金流累计970亿美元
让我们继续看利润表的其他部分。
GAAP 毛利率为 75%,非 GAAP 毛利率为 75.2%,随着 Blackwell 平台持续扩产,毛利率环比有所提升。
GAAP 运营支出环比增长 16%,非 GAAP 运营支出增长 21%,主要源于新产品导入及计算与基础设施成本的增加。
第四季度非 GAAP 有效税率为 15.4%,低于季度预期,主要源于一次性税务优惠的影响。
库存环比增长 8%,采购承诺量亦显著提升——我们已战略性地确保库存与产能,以满足未来数个季度之外的需求。此举较往常更具前瞻性,反映出我们对需求趋势的更长远可见度。
尽管我们预计先进架构产品的供应紧张态势将持续,但凭借规模优势、广泛的供应链以及长期合作伙伴关系的持续支持,我们仍对把握未来增长机遇充满信心。
2026财年第四季度我们创造了 350 亿美元自由现金流,全年累计达 970 亿美元。
全年通过股票回购和股息形式向股东返还 410 亿美元现金流,占自由现金流的 43% 。
我们将持续投入技术与生态系统建设,培育市场发展、驱动长期增长,最终实现超越市场及同业的股东总回报。
重要的是,我们将继续在投资方面执行战略性且纪律严明的流程,并始终致力于向股东返还资本。
业绩指引:
Q1收入预计780亿美元,波动幅度2%以内
预计GAAP毛利率74.9%,波动50个基点
现在谈谈第一季度的展望。
从本季度起,我们将把股权激励费用纳入非公认会计准则业绩。股权激励是我们吸引和留住顶尖人才的核心薪酬机制。
首先谈收入:总收入预计为 780 亿美元,波动幅度在 2% 以内。数据中心业务将成为主要增长引擎。与上季度一致,本次展望中未计入中国市场的数据中心计算业务收入。
预计 GAAP 和非 GAAP 毛利率分别为 74.9% 和 75% ,波动范围 ±50 个基点。全年毛利率仍将维持在 75% 中段水平。在筹备 Vera Rubin 过渡期间,我们将持续向您通报进展。
预计公认会计准则(GAAP)与非公认会计准则(非 GAAP)的运营支出将分别约为 77 亿美元和 75 亿美元,其中包含 19 亿美元的股权激励费用。
对于整个 2027 财年,我们预计 GAAP 和非 GAAP 税率将在 7% 至 19%之 间,该预测不包含任何特殊项目及税务环境的重大变化。
现在,我将会议交由 Jensen 主持,他将向各位发表讲话。
NVIDIA已成为所有主要前沿模型(OpenAI、
Meta、Anthropic、xAI等)的核心基础设施
提供者,已部署于所有云平台
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
本季度,我们显著深化并拓展了与前沿模型制造商的合作伙伴关系。
我们近期庆祝了 OpenAI 推出基于 Grace Blackwell 和 NVLink 72 系统训练与推理的 GPT-5.3 Codex 模型。该模型能处理涉及研究、工具使用和复杂执行的长期任务,已在英伟达公司内部广泛部署,深受工程师青睐。
我们正与 OpenAI 持续推进合作协议,相信即将达成共识。能与这家百年难遇的创新企业自创立之初便携手同行,我们倍感荣幸。
Meta 超级智能实验室正以惊人速度扩张——上周我们宣布 Meta 将部署数百万台 Blackwell 和 Rubin GPU、英伟达 CPU 以及 Spectrum X 以太网设备,用于训练与推理。
本季度,我们宣布与 Anthropic 建立合作伙伴关系,并对其公司投资 100 亿美元。Anthropic 将在 Grace Blackwell 和 Vera Rubin 系统上进行训练与推理。其 Claude Cowork 智能体平台具有革命性意义,为企业人工智能应用打开了闸门。
随着 Claude Cowork 与 OpenAI 的双重推动,计算需求正呈指数级增长,ChatGPT 式智能体 AI 的时代已然来临。凭借与 Anthropic、Meta、OpenAI 及 xAI 的广泛合作,英伟达技术已部署于所有云平台。
我们既能从零构建全栈式 AI 基础设施,也能提供云端支持,这使我们能够在训练、推理及 AI 工厂规模扩展等各个阶段,与前沿模型开发者建立独特合作关系。
最后,我们近期与 Groq 公司就其低延迟推理技术达成非授权协议,并欢迎一支杰出的工程师团队加入英伟达公司。
正如我们对 Mellanox 所做的那样,我们将通过 Groq 的创新技术扩展英伟达公司的架构,从而实现人工智能基础设施性能与价值的新高度。
我们期待在下月的 GTC 大会上分享更多详情。
现在开始提问环节。

分析师问答:当前Agentic AI拐点已至,下一个浪潮是物理AI,两者叠加将驱动计算需求指数级爆炸,而英伟达定位为token生成基础设施的绝对领导者
对客户现金流增长充满信心,已见证智能体AI
的拐点,以及智能体在全球企业中的实用价值
在AI新世界,计算等同于收入
维韦克·阿利亚 - 美银证券:
我记得您提到现在对 2027 年的增长前景也有了清晰的可见度,而采购承诺某种程度上也反映了这种信心。
但 Jensen ,我很好奇,当您审视顶级云客户时——今年云资本支出接近 7000 亿美元——许多投资者担忧这个规模明年将更难实现增长。而且其中几家企业的现金流生成能力也在持续承压。
我理解你们对自身路线图、采购承诺等充满信心,但对于客户能否持续扩大资本支出,你们持何种信心?若其资本支出停滞,英伟达能否在现有框架内找到增长路径?
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
我对他们的现金流增长充满信心。
原因很简单:我们已见证智能体人工智能的拐点,以及智能体在全球各地企业中的实用价值。由此催生了惊人的计算需求。
在这个人工智能新纪元,计算能力即收入来源。没有计算能力就无法生成 token ,没有 token 就无法实现收入增长。因此在 AI 新世界里,计算等同于收入。
我确信当前随着 Codex 和 Claude Code 的实际应用、Claude Cowork 引发的热潮,以及 OpenClaw 及其企业版所获得的巨大热情—— 所有企业级 ISV 厂商都在其工具平台上构建智能代理系统。
我确信我们已站上转折点——这个转折点正催生出高效的 token :既为客户创造价值,也为云服务商带来收益。
其逻辑简单明了:计算形态已然改变。
过去软件运行在有限数量的计算机上,每年约 3000 亿至 4000 亿美元的资本支出如今已转向人工智能领域。而人工智能要产生价值,就需要计算能力支撑。这种能力直接转化为增长动力,并最终体现为收入增长。
英伟达的核心本质在于生态系统的丰富性
正构建语言AI、物理AI、生物AI、制造业
/机器人AI等多领域完整AI生态
约瑟夫·摩尔 - 摩根士丹利:
恭喜取得亮眼业绩。
您提到对 Anthropic 的战略投资,可能还包括 OpenAI、CoreWeave,以及英特尔、诺基亚、新思科技等合作伙伴。显然您正处于产业生态的核心位置。
能否谈谈这些投资的作用?您如何看待资产负债表作为工具,在推动英伟达在生态系统中的地位提升并参与产业增长方面发挥的作用?
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
众所周知,英伟达的核心本质在于我们的生态系统。这正是业界钟爱我们业务的关键所在——生态系统的丰富性。
全球几乎所有初创企业都在基于英伟达平台进行开发。我们遍布所有云端。我们存在于每个本地数据中心,遍布全球边缘计算与机器人系统。数千家原生人工智能企业都基于英伟达构建。
值此全新计算时代伊始、计算平台转型之际,我们正把握重大机遇,致力于让所有人拥抱英伟达。
所有技术均已基于 CUDA 构建,这为我们奠定了卓越的起点。在构建完整 AI 生态系统过程中——无论是语言 AI、物理 AI、生物 AI 还是制造业机器人 AI——我们都致力于让所有生态系统立足于英伟达。这为我们在整个技术栈生态系统中进行投资提供了绝佳机遇。
如今我们的生态系统也比以往更加丰富。过去我们主要提供基于 GPU 的计算平台,如今已转型为计算 AI 基础设施公司,在该领域的每个环节都部署了计算平台。从计算到 AI 模型、网络到 DPU,所有环节都构建了计算堆栈。
正如我之前所说,无论是企业领域、制造业、工业领域、科学研究还是机器人技术,每个生态系统都有不同的技术栈。
我们要确保持续投资于我们的生态系统。因此,我们的投资非常明确、非常战略性地聚焦于扩大和深化我们的生态系统覆盖范围。
我们开创了机架级计算机概念,不销售计算机
节点,而是销售整套计算机机架,英伟达已是
全球最大的以太网网络公司
哈兰·苏尔 - 摩根大通:
网络业务在您整体数据中心业务中的占比持续上升,对吧? 截至 2026 财年,贵公司的网络业务收入每个季度都实现了同比增长,对吧?正如你们所提到的,第四季度同比增长了 3.6 倍。
显然,凭借你们纵向扩展和横向扩展的网络产品组合,我记得去年上半年,Spectrum-X 以太网交换平台的年化运行率约为 100 亿美元。 如今看来,该平台年化运行率可能已提升至 110 亿至 120 亿美元区间。
Jensen,结合贵司订单情况——特别是即将面世的 Spectrum-XGS 及 102T Spectrum-6 交换平台——当前 Spectrum 系列的运行率趋势如何?预计到今年年底将达到什么水平?
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
正如您所知,我们定位为人工智能基础设施公司,而人工智能计算基础设施涵盖 CPU、GPU 等组件。
我们发明了 NVLink 技术,将单个计算节点扩展为巨型计算机架。我们开创了机架级计算机的概念。我们不销售计算机节点,而是销售整套计算机机架。
这些 NVLink 交换机组成的纵向扩展系统,通过 Spectrum-X 和 InfiniBand 技术实现横向扩展——我们同时支持这两种方案。
此外,我们还通过 Spectrum-X 横向扩展技术实现跨数据中心的扩展。我们对网络架构的构想本质上是开放式扩展——所有组件均开放共享,用户可自由组合不同规模的设备,并按需集成至其定制化数据中心。但归根结底,这都是我们平台的重要组成部分。
NVLink 技术的诞生极大推动了我们的网络业务发展。每台机架配备 9 个交换机节点,每个节点内置两枚芯片。未来节点数量还将增加。因此我们每机架的交换容量极为惊人。
如今我们已成为全球最大的网络公司——若观察以太网市场,我们约两年前才进入以太网交换领域。我认为我们很可能已是当今全球最大的以太网网络公司,且这一地位必将很快确立。
因此,Spectrum X 以太网对我们而言堪称完美之选。但我们对各种网络方案持开放态度。
有人钟情于 InfiniBand 的低延迟和扩展能力,我们当然会持续支持;也有人倾向于基于以太网整合数据中心网络。为此我们开发了融合人工智能的以太网解决方案,通过数据中心内处理技术实现网络扩展,这方面我们表现尤为出色。我们的 Spectrum-X 性能正是明证。
当你建造价值 100 亿或 200 亿美元的人工智能工厂时,网络效能与数据中心利用率的 10% 差异——实际可能轻松达到 20%——将转化为真金白银。因此英伟达的网络业务正实现高速增长。
我认为这源于我们高效构建了人工智能基础设施,而该领域业务正呈现爆发式增长。
CUDA赋予基础设施非凡灵活性,所有GPU
保持架构兼容性,为Blackwell优化的模型/
软件堆栈,也能惠及Hopper、Ampere等
克里斯托弗·缪斯 - 康托·菲茨杰拉德:
我猜对于大型上下文的 Windows 和 Grok,CPX 可能会提供专用的解码解决方案。
想了解我们该如何看待贵公司的未来路线图?是否应该将定制化芯片(无论是按工作负载还是按客户定制)视为 NVIDIA 日益关注的重点——尤其在贵公司转向扩张架构的背景下?
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
我们希望——所有人都应该尽可能延长、推迟使用扩展。原因在于每次跨越扩展时,你都必须穿越一个接口。每次穿越接口都会增加延迟,造成不必要的功耗。
我们并非排斥扩展。我们确实使用扩张操作,但仅在别无选择时才启用。
因此——若观察 Grace Blackwell 架构与 Rubin 架构,我们采用两块巨型光罩限制芯片,并将其整合,从而大幅减少架构交叉点。
以英伟达为例,业界称之为我们的软件优势。但软件与架构的界限实则难以界定——我们的软件之所以高效,正是源于卓越的架构设计。CUDA 架构无疑具备更优越的效能,在每 FLOP 运算量和每瓦功耗下都能提供更高的性能表现,这完全得益于我们的架构设计理念。
关于我们对 Grok 和低延迟解码器的思考,我准备在 GTC 大会上与大家分享一些精彩的构想。
核心理念很简单:得益于 CUDA 技术,我们的基础设施具备非凡的灵活性,我们将持续深化这一优势。所有 GPU 均具备架构兼容性,这意味着当我今天为 Blackwell 优化模型时,所有投入在软件堆栈和新型模型上的优化工作,同样能惠及 Hopper 和 Ampere。
这正是 A100 在部署多年后仍能保持性能优势、持续焕发活力的根本原因。架构兼容性使这一切成为可能。它让我们能够在软件工程和优化方面进行大量投入,因为我们深知云端、本地部署等所有场景中,历代架构和 GPU 的整个安装基数都将受益。
因此我们将持续推进这一策略,既延长产品生命周期,又保持创新能力、灵活性和速度——这些最终转化为性能表现,更重要的是为客户创造出色的每美元性能和每瓦性能。
关于 Grok 的规划,各位将在 GTC 大会上看到具体方案。我们将以 Grok 作为加速器来扩展架构,其模式与当年通过 Mellanox 扩展英伟达架构如出一辙。
Rubin量产爬坡在下半年启动
市场对Rubin需求强劲且浓厚
预期几乎所有客户都将采购
斯泰西·拉斯贡 - 伯恩斯坦研究:
科莱特,我想深入探讨一下全年逐季增长的预期。
本季度数据中心业务环比增长超过100 亿美元,而指导意见似乎暗示数据中心业务环比增长的 100 亿美元中大部分将集中在下半年。随着下半年 Rubin 项目全面启动,您如何看待全年增长态势?布莱克韦尔项目已显著提振环比增长,我们是否应预期 Rubin 项目同样带来类似效应?
另外,我还希望您能谈谈对游戏业务的预期。我理解内存问题及其他因素的存在。您认为在 2027 财年,游戏业务能否实现同比增长?还是说受内存因素影响,增长将面临更大压力?
以上两个问题,请予以说明。
科莱特·克雷斯 - 执行副总裁兼首席财务官:
我先谈谈未来的收入情况。我们仍将按季度审视收入表现。
展望全年,我们肯定会继续销售和提供 Blackwell 产品,同时 Vera Rubin 也将进入市场。这套卓越的架构能帮助客户快速部署,我们已为不同客户的多种订单做好了准备。
目前判断 Vera Rubin 的具体贡献尚早,其量产爬坡将在下半年启动,我们将逐步推进。
但市场强劲需求和浓厚兴趣毋庸置疑——我们预期几乎所有客户都将采购 Vera Rubin 。关键在于产品何时上市,以及客户何时能在其数据中心完成部署。这正是您提到的第一部分问题。
第二部分聚焦于我们的游戏业务。尽管我们渴望获得更多供应,但我们认为未来几个季度供应将持续紧张。若年底前形势好转,或许能考虑实现同比增长。但目前判断仍为时尚早,我们将尽快向各位通报进展。
所有数据中心均受电力上限限制,采用正确架构
的计算能力最大化收入,已从战略问题变为生存
之道,选择每瓦性能最优的架构已成为一切关键
阿蒂夫·马利克 - 花旗集团:
Jensen ,我很好奇您能否谈谈 CUDA 的重要性,因为如今人工智能领域越来越多的投资资金正流向推理工作负载。
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
若没有 CUDA,我们根本无从进行推理。几年前推出的 TensorRT LLM 完整推断栈至今仍是全球性能最优的推断架构。
为 NVLink 优化该栈时,我们必须探索并创新基于 CUDA 的全新并行化算法,以分配工作负载和推断任务,充分利用 NVLink 72 的聚合带宽。
NVLink 72 使我们实现了每瓦性能代际提升 50 倍的突破。 这堪称惊人的飞跃,且合乎逻辑。NVLink 72 是伟大的发明,其研发过程充满挑战——从创建交换技术、解耦交换机到构建系统机架,所有工作都在众目睽睽之下完成,所有人都清楚我们付出了多大努力。
但成果令人叹为观止。每瓦性能提升 50 倍,每美元性能提升 35 倍。推理性能的飞跃尤为惊人——必须认识到,如今推理能力直接等同于客户收益,因为智能体生成海量 token 且效果显著。
当智能体编码运行时,会持续生成数千、数万乃至数十万 token ,运行时长可达数分钟至数小时。这些智能体系统通过分派不同智能体协同工作,令 token 生成量呈现指数级增长。
这要求我们以更高速率进行推理——当推理速度大幅提升且每个 token 都可货币化时,便直接转化为客户收入。因此对客户而言,推理性能即等同于收入。
对于数据中心而言,每瓦的推理 token 数量直接决定了云服务提供商的营收。其根本原因在于——所有设施都受限于电力供应。
因此,无论拥有多少数据中心,每个设施——无论是100兆瓦还是1千兆瓦——都存在电力上限。所以能效最高的架构能带来最大收益,因为每个性能 token(每瓦性能)都等同于美元价值。每瓦性能 token 转化为每瓦美元收益,在千兆瓦级别上直接转化为营收。
由此可见,如今所有云服务提供商都理解这个道理——每家超大规模企业都明白:资本支出转化为计算能力。而采用正确架构的计算能力能最大化收入,计算能力即等同于收入。若不投资当前运算能力,不投资计算资源,就不可能实现收入增长。
我认为这已是共识:计算能力等于收入,选择正确架构至关重要。这已不仅是战略问题,更是生存之道。这直接影响他们的收益,因此选择正确的架构至关重要。
每瓦性能最优的那个,简直就是一切。
毛利率最重要的杠杆是为客户创造代际领先
优势,“每瓦性能代际突破+每美元性能远超
系统成本的突破”是维持高毛利率的核心理念
本杰明·赖茨 - 美利斯研究:
首先,我要赞扬你们将股票薪酬计入非公认会计准则的做法,我认为这是个明智之举。但这并非我的问题所在。
我的问题是关于毛利率,以及长期维持 70%中段水平的可持续性。我们是否可以理解为,既然供应可见性已延伸至 2027 年,那么该水平在未来数年内是可持续的?
那么,Jensen,之后呢?你们能否透露内存消耗方面的创新,让我们更有信心维持该利润率水平?
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
我们毛利率最重要的杠杆,其实是为客户创造代际领先优势。这是至关重要的核心。
如果我们能实现每瓦性能的代际突破,大幅超越摩尔定律的极限;如果我们能实现每美元性能远超系统成本的突破,那么我们就能持续保持毛利率。这就是最简单却最重要的核心理念。
我们之所以加速推进,首要原因在于:全球对 token 的需求因关键转折点而呈现完全指数级增长。
我们都目睹了这种现象——云端六年前的 GPU 已被完全消耗殆尽,价格持续攀升。这表明现代软件开发所需的计算量正呈指数级增长。
我们的战略是每年交付完整的 AI 基础设施。今年我们推出了 6 款新芯片,Rubin 下一代产品也将推出多款新芯片。每一代产品,我们都致力于实现每瓦性能和每美元性能的 X 倍提升。
这种速度与我们极致协同设计的实力,使我们能为客户创造价值与效益——这正是我们价值交付的核心所在。
Hopper显卡现已进入太空
太空GPU最佳应用场景之一是成像技术
安托万·什凯班 - 新街研究:
我想咨询关于太空数据中心的事宜,贵公司部分客户正在考虑建设此类设施。
您认为其可行性如何?时间跨度会是怎样的?当前的经济效益如何?您认为未来发展会呈现怎样的趋势?
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
当前经济效益不佳,但情况会逐步改善。
众所周知,太空运作方式与地球截然不同。能源虽取之不尽,但太阳能电池板体积庞大,所幸太空拥有广阔空间。至于散热问题——太空环境虽寒冷,却缺乏气流。因此唯一散热途径是传导,所需散热器体积必然巨大。液体冷却显然不可行,因其重量过大且易冻结。
因此我们在地球上采用的散热方法与太空环境有所不同。但许多计算难题确实需要在太空环境中解决。NVIDIA 已率先将 GPU 送入太空—— Hopper 显卡现已进入太空。
GPU 在太空的最佳应用场景之一是成像技术——通过光学系统与人工智能实现超高分辨率成像。它能完成多角度重投影计算、进行图像增强与降噪处理,从而以极快速度呈现超大尺度、超高精度的图像。
若将海量成像数据传回地球处理,不仅耗时耗力,更难以实现实时处理。在太空完成数据采集与处理后,可暂存所有信息直至发现关键目标再行分析。
因此太空人工智能将拥有极具价值且充满前景的应用场景。
前五大客户收入占比达50%,但源于"CUDA
生态的普适性+全栈覆盖”的客群多样化也是
核心优势,且绑定顶级模型开发者和开源社区
马克·利帕西斯 - Evercore ISI:
我想讨论您在发言中关于收入多元化的评论。
科莱特,您提到超大规模企业贡献了超过50%的收入,但增长主要来自其他数据中心客户。为澄清理解,我想确认:这是否意味着非超大规模客户的增长速度更快?
若情况属实,能否帮助我们理解非超大规模客户采取了哪些差异化策略?他们与超大规模客户的业务模式是否不同?还是在相同业务上采用不同规模?您是否预期这一趋势将持续?客户结构是否会演变至非超大规模客户成为贵公司业务的主体部分?
科莱特·克雷斯 - 执行副总裁兼首席财务官:
让我们看看能否解答这个问题。当您思考我们的前五大客户时——正如我们所阐述的,包括云服务提供商(CSPs)和超大规模企业(hyperscalers)——它们目前贡献了我们总收入的约 50%。
因此,我们合作的其他各类企业构成了庞大的多元化群体,涵盖人工智能模型开发者、企业客户、超级计算领域以及主权客户等众多细分市场。
您说得没错,这确实是快速增长的领域。我们在平台上所有云服务提供商中都占据强势地位。如今我们还拥有极其多元化的全球客户群。这种多样性将带来显著优势,使我们能够服务所有细分领域。
我看看 Jensen 是否想补充说明?
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
是的,这正是我们生态系统的优势之一,所有技术都基于 CUDA 构建。我们是唯一覆盖所有云平台、通过所有计算机制造商提供、在边缘端可用且正在拓展电信领域的加速计算平台。
显然,未来的无线电设备都将由人工智能驱动,而未来无线网络也将成为计算平台。这是必然趋势,但必须有人率先研发实现这一愿景的技术。为此我们创建了 Aerial 平台来实现这一目标。
我们的技术几乎应用于所有机器人和自动驾驶汽车。CUDA 技术一方面能发挥专用处理器的性能优势——例如我们 GPU 内部的张量核心;另一方面,其灵活性让我们能解决语言问题、计算机视觉问题、机器人问题乃至生物学问题、物理学问题,几乎涵盖所有 AI 领域和各类计算算法。
因此——客户群体的多样性正是我们的核心优势之一。
其次,即便我们的处理器具备可编程性,若缺乏自主生态系统支撑,即便我们正在投资未来生态并持续优化现有生态,仅凭为他人生态系统赢得的设计订单,我们的发展空间也将极为有限。正因我们构建的平台,生态系统的自然扩张与成长才成为可能。
最后,至关重要的是我们与 OpenAI、Anthropic、xAI 以及 Meta 建立的合作伙伴关系——当然还包括全球几乎所有开源项目。Hugging Face 平台上有 150 万个 AI 模型,全部运行在 NVIDIA CUDA 之上。
因此——开源生态整体而言可能是全球第二大模型集群(OpenAI 居首),其规模堪比所有开源项目的总和。NVIDIA 能够运行所有这些模型,使我们的平台具备高度通用性、极易使用且值得投资。
这造就了客户群体的多元化、平台体系的多样性,并使我们的服务覆盖全球每个国家——因为我们支持着全世界的生态系统。
英伟达对CPU架构的决策与全球其他CPU厂商
截然不同,Vera是唯一支持LPDDR5的数据中心
CPU,设计核心是实现极高的数据处理能力
亚伦·雷克斯 - 富国银行:
是的。我认为这延续了平台理念和深度协同设计的思路。过去一个季度的新闻中,英伟达显然展现了将 Vera CPU 作为独立解决方案推向市场的能力或决心。
因此,Jensen,我想了解的是:随着架构演进,Vera 在其中扮演着怎样的关键角色?这种演进更多是由推理工作负载的普及还是异构性所驱动? 我只是好奇您如何看待英伟达在这方面的演进,特别是基于独立 CPU 的演进?
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
我会在 GTC 大会上向大家详细介绍。
但从最高层面来说,我们对 CPU 架构的决策与全球其他 CPU 厂商截然不同。这是唯一支持 LPDDR5 的数据中心 CPU,其设计核心在于实现极高的数据处理能力。
之所以如此设计,是因为我们关注的大多数计算问题都以数据为驱动,人工智能便是其中之一。其单线程性能与带宽的结合表现堪称惊人。我们做出这些架构决策,是因为在人工智能发展的各个阶段——从数据处理到训练阶段——数据处理始终是必经环节。
数据处理、预训练及后训练阶段中,人工智能正在学习如何运用工具。而这些工具大多运行于纯 CPU 环境,或在 CPU 与 GPU 协同加速的环境中运行。Vera 正是为后训练阶段量身打造的卓越 CPU。因此在整个人工智能管道中,大量场景都需调用 CPU 资源。
我们同样重视 CPU 与 GPU 的协同。当算法加速达到极限时,阿姆达尔定律表明必须配备极致高效的单线程 CPU——这正是我们打造 Grace 处理器追求卓越单线程性能的原因,而 Vera 的表现更远超预期。
对资本回报进行极其审慎的评估,当前最重要的是
全力支持所处的极端生态系统,保障供应链稳定、
产能提升及作为AI解决方案的早期开发者提供支持
蒂莫西·阿尔库里 - 瑞银集团:
科莱特,我想请您谈谈资本配置的问题。
我知道贵公司大幅提高了采购承诺额度,但听起来似乎已度过难关,今年可能产生约 1000 亿美元现金流。因此——无论业绩表现多好,股价始终未见显著上涨。
因此我认为——你可能觉得当前股价是回购股票的绝佳时机。所以想请教:为何不果断出手,在此进行大规模股票回购?
科莱特·克雷斯 - 执行副总裁兼首席财务官:
我们对资本回报进行极其审慎的评估,并坚信当前最重要的举措之一,就是全力支持我们所处的极端生态系统——这包括从供应商端确保所需供应链的稳定,到协助他们提升产能,再到作为人工智能解决方案的早期开发者,为平台提供支持。
因此我们将持续将此作为战略投资的重要环节。当然,我们仍在回购股票,股息政策也保持不变,并将在年内持续寻找合适的独特时机进行各类投资。
当前Agentic AI拐点已至,下一个浪潮是物理AI
两者叠加将驱动计算需求指数级爆炸,而英伟达
定位为token生成基础设施的绝对领导者
詹姆斯·施耐德 - 高盛集团:
Jensen ,您此前曾指出到 2030 年数据中心资本支出有望达到 30 亿至 4 万亿美元,这意味着增长率可能加速——您已对此作出指引,至少在下一季度会如此。
问题在于:您认为哪些关键应用领域最有可能推动这一拐点?是物理 AI、智能体应用,还是其他领域?您对 30 亿至 4 万亿美元的投资规模预期是否依然保持信心?
黄仁勋 - 联合创始人、首席执行官、总裁兼董事:
让我们退一步,从几个不同角度来分析。
首先是我们的基本原则——未来软件开发将采用基于 AI 的 token 驱动模式。如今人人都在讨论 token 经济学,数据中心生成 token ,推理过程本质上就是生成 token ,而我们正是 token 的生成者。
我们刚才讨论的 token 机制——NVIDIA NVLink 72 技术使我们能以比上一代产品高 50 倍的单位能效生成 token 。因此 token 生成机制将成为未来软件与计算领域的核心。
但回顾过去的计算模式,软件所需的计算需求量仅是未来需求的零头。人工智能已然到来,且不会倒退。它只会日益精进。
试想:全球每年在传统计算领域的投资约为 3000 亿至 4000 亿美元,而人工智能的计算需求已达传统模式的千倍量级。计算需求已大幅攀升。
若我们仍坚信其中蕴含价值——稍后将详述——全球必将持续投资以生产 token 。因此世界所需的 token 生成能力远超 7000 亿美元,我确信 token 生产将持续进行。
从现在起,我们将持续投资计算能力。根本原因在于:每家企业都依赖软件,而所有软件都将依赖人工智能,因此每家公司都将生产 token ——这正是我称其为"人工智能工厂"的缘由。
无论你是云数据中心企业,还是拥有生成收入 token 的人工智能工厂;若是企业软件公司,你将为工具层面的智能系统生成 token ;若是机器人制造商——自动驾驶汽车便是其先驱——你将拥有巨型超级计算机,这些本质上就是生成 token 的人工智能工厂,token 注入汽车后便成为其人工智能。同时还需在车内配置计算机持续生成 token 。
因此我们确信这正是计算技术的未来。为何如此笃定?因为传统软件开发依赖预先录制——所有内容都需预先捕获,软件需预编译,内容需预写。视频内容也需预先录制。但如今一切皆可实时生成。
实时生成时,系统能综合考虑使用者的情境、场景、查询内容及意图,从而生成名为"智能代理 AI"的新型软件输出结果。因此所需的计算量远超预录制模式。正如计算机的运算能力远超预录制的 DVD 录像机和播放器,人工智能所需的计算能力也远超传统软件开发模式。
现在关于计算与可持续性的问题:在计算机科学层面,这正是未来计算的发展方向。从产业层面来看,归根结底所有企业都依赖软件驱动,云服务公司同样如此。
若新型软件需要生成 token ,且这些 token 能实现货币化,那么其数据中心建设规模自然直接决定营收水平。因此计算能力驱动营收增长——我认为这点大家都心知肚明。我认为人们也正逐渐开始理解这一点。
最后,人工智能为世界创造的价值终究需要转化为实际收益。
就在我们眼前——就在我们所见、所立之处,智能体人工智能已然跨越了转折点,而这一转变实实在在地发生在过去两三个月间。
当然,在行业内部,我们早已察觉到这一趋势,大约持续了半年左右。但如今世界已觉醒于智能体 AI 的转折。这些智能体极其聪明,正在解决实际问题。
编程工作如今显然由智能体系统支撑,英伟达所有程序员都在大量使用智能体系统——无论是 Claude Code 还是 OpenAI Codex,甚至同时使用 Cursor,有时三者并用,具体取决于应用场景。
这些公司不仅拥有智能体,还配备协同设计伙伴与工程团队共同解决问题。其营收呈现爆发式增长——以 Anthropic 为例,年收入已达十倍增长,但产能严重受限,因为需求量惊人,token 需求更是呈指数级增长。OpenAI 同样面临巨大需求压力。 因此,他们能投入的计算资源越多,收入增长就越快。
这印证了我之前所言:在当下这个新世界里,推理即收入,计算能力等同于收入。
从诸多角度看,这正是我们称之为"新工业革命"的原因——新的工厂正在兴建,新的基础设施正在铺设,这种全新的计算模式已不可逆转。
因此,既然我们相信 token 生成将成为计算的未来——我对此深信不疑,且业界普遍认同——那么从此刻起,我们将持续拓展这一能力,并在此基础上不断扩大规模。
当前我们所见证的浪潮,正是具有自主行为能力的人工智能的拐点。
而下一个拐点将是物理人工智能——我们将把人工智能与这些自主系统应用于实体领域,例如制造业、机器人技术等。这将带来巨大的发展机遇。
科技产业观察
2025Q4科技股财报解读:
台积电财报透视AI需求:“AI大趋势”将持续多年而非短期泡沫,上调AI加速器2024-2029年收入CAGR,可达中高50%+!
谷歌财报透视AI应用:2025年智能代理在打基础,2026年进入消费者大规模体验与价值变现,最迫切、最让人夜不能寐的挑战是计算能力瓶颈!
微软财报透视AI代理:可以将代理视为新型应用程序,神奇之处在于部署工具后,智能代理会主动协调事务,为企业创造更多协同效应!
Meta财报透视AI应用:2026年智能代理开始真正发挥作用,Meta AI在订阅服务、广告投放以及相关领域的多元化模式都将蕴含巨大机遇!
亚马逊财报透视企业级AI:AI市场呈现出“哑铃式”格局,哑铃中段的企业级生产负载将成为最大最具持久力的部分!
SK海力士财报透视AI内存:AI推理驱动存储从外围向计算核心转型,企业级SSD需求爆发式增长,优先开发超高性能/高IOPS SSD!
三星财报透视HBM:2026年HBM产能已售罄,销售额同比暴增超3倍,客户正抢签2027年长期协议!
闪迪财报透视NAND:2027年预计新增约75–100EB的数据量,2028年需求量将翻倍,数据中心存储需求惊人,客户已商讨2029年与2030年的合作!
希捷财报透视存储需求:2026年订单已锁定,2027年配额工作即将启动,容量框架基本敲定,定价仍有谈判空间!
西部数据财报透视存储:AI能力扩展叠加云计算发展,高密度存储解决方案需求激增,与超大规模客户紧密合作,大规模交付可靠的大容量硬盘!
Palantir透视政企AI:Q4实现惊人的127法则,美国市场增长93%,充分说明正在开创前所未有的商业模式!
Workday财报透视AI颠覆:“氛围编程”无法造就真正的HR/ERP系统,“大型模型+连接数据集”完全不可行,HR与财务应用凝聚20年知识积累!
沃尔玛财报透视智能购物助手:Sparky助力从传统搜索向意图驱动型商务转型,帮助顾客清晰理解场景需求,实时生成个性化方案!
Shopify财报透视Agentic电商:2026年将开启庞大的AI购物新领域,AI对话购物须理解交易复杂性,提供至少与线上商店同样出色的体验!
Reddit财报透视AI语料:在被AI对话充斥的世界里,越来越多人转向Reddit,是为了建立联系、获取知识和开展研究!
Spotify财报透视AI音乐:正在构建语言到音乐、语言到播客、语言到书籍的数据集,品味是主观判断,因此该数据集高度特殊且持续优化!
2025Q3科技股财报解读:


