推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  减速机型号  减速机  履带  带式称重给煤机  链式给煤机  无级变速机 

英伟达2026 Q4财报电话会纪要

   日期:2026-02-26 09:17:50     来源:网络整理    作者:本站编辑    评论:0    
英伟达2026 Q4财报电话会纪要

NVIDIA CORPORATION

Q4电话会纪要

全景深度解析

2026.02.25 | Jensen Huang & Colette Kress

总营收 $680亿  |  同比增长 73%

核心财务数据一览

FY2026 Q4 | 所有数据来源于官方财报电话会议

季度总营收

$680亿

同比 +73%

数据中心营收

$620亿

同比 +75% | 环比 +22%

年度数据中心

$1940亿

年增68% | ChatGPT以来增长13倍

自由现金流

$970亿

Q4单季 $350亿

网络业务

$110亿

同比 +3.5倍

主权AI

$300亿+

年度 | 同比3倍+

游戏

$37亿

同比 +47%

专业可视化

$13亿

同比 +159%

汽车

$6.04亿

同比 +6%

物理AI

$60亿+

年度贡献

Jensen Huang 核心观点

CEO亲述 | AI新工业革命的底层逻辑

"Compute equals revenues."

计算力等于收入。AI基础设施投资直接驱动客户收入和对NVIDIA技术的需求。没有算力,就无法生成token;没有token,就无法增长收入。

"The ChatGPT moment of agentic AI has arrived."

Agentic AI的ChatGPT时刻已经到来。Claude Code、Claude Cowork和OpenAI Codex已实现有用智能,采用率正在飙升,token需求呈指数增长。

"AI is not going to go back. AI is only going to get better from here."

软件的未来是token驱动的。过去计算需求只是未来的一小部分。世界过去每年投资3000-4000亿美元在传统计算上,而AI所需的计算量是过去的1000倍。

Jensen强调,每家公司都依赖软件,每个软件都将依赖AI,因此每家公司都将生产token。无论是云数据中心、企业软件公司,还是机器人工厂和自动驾驶汽车,都需要「AI工厂」来生成token并转化为收入。这就是他所说的「新工业革命」——新的工厂、新的基础设施正在建设,计算的新方式不会倒退。

数据中心 & 网络:增长引擎

Blackwell架构全面铺开 | 网络业务爆发式增长

BLACKWELL 架构

9吉瓦的Blackwell基础设施已被主要云服务商、超大规模客户、AI模型开发者和企业部署和使用。Grace Blackwell系统约占本季度数据中心收入的三分之二

SemiAnalysis宣布NVIDIA为推理之王——GB300和NVL72实现50倍的单位能耗性能和35倍更低的每token成本。CUDA软件在四个月内为GV200和NVL72带来了5倍性能提升。

网络业务爆发

季度网络收入$110亿,同比增长超3.5倍。NVLink和Spectrum X以太网规模扩展和规模横向扩展技术均实现两位数环比增长。

全年网络业务超过$310亿,比FY2021(收购Mellanox当年)增长超过10倍。客户正在将分布式数据中心统一为集成的「吉级规模AI工厂」。

客户多元化

前五大云服务商/超大规模客户约占数据中心收入的50%略多,但增长由其余客户引领。2026年分析师预测前五大云厂商CapEx接近$7000亿,比年初增加近$1200亿。

Meta的GEM模型推动Facebook广告点击量增加3.5倍,Instagram转化率提升超过1%,直接带来有意义的收入增长。同样的NVIDIA基础设施支持Meta超级智能实验室训练和部署前沿Agentic AI系统。

重磅战略合作

四大AI前沿公司全面布局

$100亿投资Anthropic

Anthropic将在Grace Blackwell和Vera Rubin系统上进行训练和推理。Claude Cowork Agent平台具有革命性意义,已打开企业AI采用的闸门。Jensen称其与OpenAI之间,算力需求正在飙升。

OpenAI

GPT-5.3 Codex使用Grace Blackwell和NVLink 72系统训练和推理。NVIDIA工程师广泛使用,正就合作协议进行最后谈判。

Meta

正在部署数百万Blackwell和Rubin GPU、NVIDIA CPU以及Spectrum X以太网,用于训练和推理。

Groq 收购

与Groq达成非授权协议,引入一批杰出工程师。将Groq低延迟推理创新整合到NVIDIA架构中,类似于当年收购Mellanox的战略。更多细节将在GTC大会上分享。

Rubin 下一代平台

六颗全新芯片 | 推理成本降低10倍

Vera CPURubin GPUNVLink 6 SwitchConnectX-9 SuperNICBlueField-4 DPUSpectrum-6 Ethernet

Rubin平台可以用四分之一数量的GPU训练MoE模型,推理token成本比Blackwell降低10倍

首批Vera Rubin样片已于本周发送给客户,量产出货预计在下半年启动。

基于模块化、无线缆托盘设计,相比Blackwell提供更好的弹性和可维护性。Jensen表示预计每家云模型构建商都将部署Vera Rubin。

物理AI & 自动驾驶

Robotaxi指数级增长 | 从千辆到百万辆

物理AI在FY2026已贡献超过$60亿的NVIDIA收入。Robotaxi出行量正在指数级增长,商业车队来自Waymo、Tesla、Uber、WeRide和Zoox。

预计从2025年的数千辆车扩展到未来十年的数百万辆,创造一个有望产生数千亿美元收入的市场。这一扩张将需要数量级更多的算力。

重要进展

  • CES上推出Alpamayo——全球首个开放的推理、视觉、语言、行动模型和仿真蓝图组合
  • 搭载Alpamayo、基于NVIDIA Drive的全新Mercedes-Benz CLA即将上路
  • RTX Pro 5000 Blackwell工作站发布,配备72GB高速内存
  • 与Boston Dynamics、Caterpillar、FANUC、LG等公司推进机器人开发
  • 与Dassault、Siemens、Synopsys建立新合作,推动工业物理AI采用

主权AI:国家级机遇

年收入突破$300亿 | 同比三倍增长

FY2026主权AI业务同比增长超过3倍,达到$300亿以上,主要由以下国家客户驱动:

加拿大法国荷兰新加坡英国

Jensen指出,每个国家都将像电力和互联网一样建设和运营自己的AI基础设施。长期来看,主权AI市场将至少与AI基础设施支出同步增长,各国将按GDP比例投入AI。

利润率 & 资本回报

毛利率稳健 | 大规模回报股东

GAAP毛利率

75.0%

Non-GAAP毛利率

75.2%

年度资本回报$410亿,占自由现金流的43%,通过股票回购和分红返还给股东。

库存环比增长8%,采购承诺大幅增加,战略性确保供应和产能以满足延伸到2027年的需求。

年度研发预算接近$200亿,支撑代际架构开发和极致协同设计创新。

"The single most important lever of our gross margins is actually delivering generational leads to our customers."

—— Colette Kress,CFO

Q1 FY2027 前瞻指引

营收加速 | 数据中心继续主导

预期营收

$780亿

±2%

Non-GAAP毛利率

75.0%

±50bps

  • 增长主要由数据中心驱动
  • 展望中不包含来自中国的数据中心计算收入
  • 全年毛利率预期维持在中70%水平
  • 本季度起将股票薪酬费用纳入Non-GAAP结果(约$19亿)
  • 预计2026日历年全年逐季营收增长,超出此前$5000亿Blackwell和Rubin收入机会的预期

风险因素

关注供应约束与地缘不确定性

供应持续紧张

先进架构的供应约束预计将持续,尽管库存和采购承诺已增加。Colette Kress指出:“预计供应约束将成为Q1及以后游戏业务的逆风。”

东大市场不确定性

虽有少量H200产品获准出口东大,但尚未产生任何收入,未来进口是否获批仍不确定。

国产竞争对手崛起

国产竞争对手陆续通过IPO获得资金支持,正在取得进展,有可能长期颠覆全球AI产业格局。

太空数据中心:未来畅想

Jensen回答分析师提问 | 前瞻性视角

Jensen坦言太空数据中心目前经济性较差,但前景可期。太空中有充足的能源和空间,但散热只能通过传导(无气流),液冷因重量问题不可行。

NVIDIA的MPS已成为全球首个太空GPU,Hopper已在太空运行。最佳用例是超高分辨率成像——利用光学和AI进行大规模、高速图像处理,比将PB级数据传回地球更高效。

这是一个充满想象力的长期方向,太空中的AI将拥有独特而有趣的应用场景。

CUDA 生态:战略护城河

150万AI模型 | 全平台覆盖

Hugging Face上有150万个AI模型,全部运行在NVIDIA CUDA上。开源生态整体可能是仅次于OpenAI的第二大模型群体。

CUDA架构在每FLOP每瓦效率上无可争议地更高效。TensorRT-LLM推理栈针对NVL系统优化,发明了新的并行化算法来分配工作负载和推理。

Jensen强调:CUDA让NVIDIA平台极其灵活,能解决语言、计算机视觉、机器人、生物学、物理学等各种AI和计算算法问题,形成了无与伦比的客户多元化优势。

Vera CPU:全新架构哲学

Jensen详解差异化CPU设计理念

Vera CPU采用了与全球其他CPU根本不同的架构决策——唯一支持LPDDR5的端口设计,专注于超高数据处理能力。

Jensen解释,AI全流程——数据处理、预训练、后训练——都需要大量CPU。特别是后训练阶段,AI在学习使用工具时,许多工具运行在CPU或CPU+GPU加速环境中。

引用Amdahl's Law:当加速算法达到极限时,需要极快的单线程CPU性能。Grace已在单线程性能上表现卓越,而Vera在此基础上实现了飞跃式提升

重要时间节点

3.4

Morgan StanleyTMT大会

3.16

GTC大会Jensen主旨演讲

5.20

Q1 FY2027财报电话会

本文内容全部来源于NVIDIA FY2026 Q4财报电话会议实录

2026年2月25日 | Jensen Huang & Colette Kress

NVIDIA (NVDA +1.44%) | 仅供信息参考,不构成投资建议

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON