重要信息总结:
1. 英伟达Q4数据中心收入达620亿美元,同比增长75%,环比增长22%,主要得益于Blackwell及其Blackwell Ultra产品的持续强劲表现。2026Q1预计收入780亿美元,不含来自中国的数据中心相关的收入。
2. 英伟达预计在2026日历年内收入将实现连续增长,超出去年分享的5000亿美元Blackwell和Rubin的收入机遇(去年10月的GTC大会上,黄仁勋透露,英伟达已合计获得2025年和2026年两个日历年价值5000亿美元的芯片订单,其中包括将于今年开始量产的下一代Rubin芯片)
3. Rubin平台由6款全新芯片组成:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC网卡、BlueField-4 DPU(数据处理器),以及Spectrum-6以太网交换机。与Blackwell相比,这一平台采用四分之一数量的GPU即可训练MOE模型,推理时的token成本最高可降低10倍。Rubin产品预计将于今年下半年正式启动量产出货。
4. 英伟达的Vera CPU是唯一一款支持LPDDR5的数据中心CPU,专为超高数据处理,以及训练后阶段量身打造,拥有极其快速的单线程性能。
5. 英伟达将为AWS提供NVLink支持,助力AWS芯片的集成。(AWS自研了Trainium GPU芯片,也就是说Trainium芯片可以使用NVLink来提升互联性能。)
6. 英伟达的客户中,云服务提供商和超大规模云厂商收入占比超过50%,未来,CUDA生态系统中的其它客户将贡献更大的增长。
7. 英伟达已成为全球最大的网络设备供应商。公司大约在两年前才正式进入以太网交换市场,今天很可能已是全球最大的以太网网络设备供应商,而且这一地位未来会更加稳固。
8. 一场从传统机器学习向生成式人工智能的根本性变革已然发生。超大规模云服务商将海量传统工作负载升级至生成式AI后,其投资回报率已显现强劲迹象——包括搜索、广告生成和内容推荐系统等应用均取得了显著的成效,而这正推动着这些云服务商加快资本支出步伐。
9. 前沿代理型系统(agentic AI systems)已进入一个关键转折点。Claude Code、Claude Cowork以及OpenAI编码器均已展现出实用的智能水平。这些系统的采用率正呈指数级飙升,相关代币(tokens)也实现了可观盈利,这使得扩大计算规模的需求变得尤为迫切。
10. OpenAI推出基于Grace Blackwell NVLink 72系统进行训练和推理的GPT-5.3-Codex。GPT-5.3-Codex能够胜任涉及研究、工具使用和执行复杂的长期任务。目前,5.3-Codex已在英伟达内部得到广泛部署,并受到了工程师的广泛欢迎。
11. 2026年全球前五大云服务商及超大规模云服务商的资本支出总额,自今年初以来已累计增加近1200亿美元,目前总额即将逼近7000亿美元。
12. Meta将部署数百万台Blackwell和Rubin GPU、NVIDIA CPU以及Spectrum x以太网,用于模型训练与推理。
13. 英伟达与Anthropic建立合作伙伴关系,并向其公司投资100亿美元。
14. 供应链紧张将成为第一季度及之后游戏业务发展的主要阻力。
15. 英伟达坚信客户的现金流将持续增长,认为全球各地企业和机构对代理型AI(agentic AI)有着巨大的需求,并且在这个全新的AI世界里,计算等于收入。客户的计算需求能够为云服务提供商带来丰厚的利润,以支撑其更大规模的资本支出。
16. 关于太空数据中心,英伟达认为目前的经济性很差,且面临散热的问题。不过,英伟达已经首先将GPU送入太空并部署,并举了一个太空应用的场景:超高分辨率成像。通过在轨数据的AI处理,可以节省大量的数据带宽。英伟达看好人工智能在太空领域的应用前景。
17. 中国的竞争对手正在取得进展,从长远来看,有望颠覆全球人工智能行业的格局。
***以下为会议内容翻译,供参考***
时间:2026年2月25日下午5:00(美国东部时间)
公司参与者
Toshiya Hari——投资者关系与战略财务副总裁
科莱特·克雷斯(Colette Kress)——执行副总裁兼首席财务官
黄仁勋(Jen-Hsun Huang)——联合创始人、首席执行官、总裁兼董事
电话会议参与者
维韦克·阿亚——美银证券研究部
约瑟夫·摩尔——摩根士丹利研究部
哈兰·苏尔——摩根大通研究部
克里斯托弗·缪斯——康托·菲茨杰拉德公司研究部
斯泰西·拉斯贡——伯恩斯坦机构服务有限责任公司研究部
阿蒂夫·马利克——花旗集团研究部
本杰明·赖茨斯——梅利乌斯研究有限责任公司
安托万·奇凯班——新街研究有限责任公司
马克·利帕西斯——Evercore ISI机构股票研究部
亚伦·雷克斯——富国证券有限责任公司
蒂莫西·阿尔库里——瑞银投资银行研究部
詹姆斯·施奈德——高盛集团有限公司研究部
演示
主持人
下午好。我叫莎拉,今天由我来担任本次会议的主持人。在此,我谨代表英伟达,欢迎各位参加公司第四季度财报电话会议。Toshiya Hari先生,请您开始会议吧。
Toshiya Hari,投资者关系与战略财务副总裁
谢谢大家!下午好,欢迎来到英伟达2026财年第四季度的电话会议。今天与我一同出席的有英伟达总裁兼首席执行官黄仁勋先生,以及执行副总裁兼首席财务官科莱特·克雷斯女士。本次电话会议将通过英伟达投资者关系网站进行实时网络直播。直播录像将持续保留,供您回看,直至我们召开2027财年第一季度业绩电话会议。今天会议的内容属于英伟达的财产,未经事先书面许可,不得擅自复制或转录。
在本次电话会议期间,我们可能会根据当前预期作出前瞻性陈述。这些陈述受到诸多重大风险与不确定性的制约,我们的实际结果可能与之存在重大差异。有关可能影响我们未来财务业绩和业务的各类因素,请参阅今日发布的财报公告、我们最近提交的10-K表和10-Q表,以及我们可能依据8-K表向美国证券交易委员会提交的报告。所有陈述均基于我们截至2026年2月25日(即今日)可获得的信息作出。除法律要求外,我们不承担更新任何此类陈述的义务。
在本次电话会议中,我们将讨论非GAAP财务指标。您可在我们网站上发布的首席财务官评论中,找到这些非GAAP财务指标与GAAP财务指标的对账说明。
接下来,我将把通话交给科莱特。
科莱特·克雷斯,执行副总裁兼首席财务官
谢谢,Toshiya。我们又交出了一份亮眼的季度业绩,收入、营业利润和自由现金流均创下历史新高。总营收达680亿美元,同比增长73%,增速较第三季度进一步加快。环比增长同样创下新高,我们在多样且不断扩大的客户群体中新增了110亿美元的数据中心收入,这些客户涵盖云服务商、超大规模数据中心、人工智能模型开发者、企业以及主权国家。随着推理部署规模不断扩大,加之训练需求持续增长,我们Blackwell架构在数据中心规模下的极致协同设计需求正日益强劲。向加速计算转型以及人工智能技术在现有超大规模工作负载中的全面渗透,将继续推动我们的业务增长。
基于日益智能且多模态模型打造的自主型与物理型人工智能应用,正开始推动我们的财务表现。按全年计算,数据中心产生的收入达到1940亿美元,同比增长68%。自2023财年ChatGPT问世以来,我们已将近13倍地扩大了数据中心业务规模。展望未来,我们预计2026日历年内收入将实现连续增长,超出我们去年分享的5000亿美元Blackwell和Rubin的收入机遇(注:去年10月的GTC大会上,黄仁勋透露,英伟达已合计获得2025年和2026年两个公历年价值5000亿美元的芯片订单,其中包括将于今年开始量产的下一代Rubin芯片)。我们相信,目前已有充足的库存和供应链承诺,能够满足未来的市场需求,包括出货量将持续延伸至2027日历年。每个数据中心都面临电力限制。客户会根据每瓦性能,在这些限制条件下做出关键的架构决策,以最大限度地提升AI工厂的收入。SemiAnalysis近日宣布,英伟达稳居“推理之王”地位,InferenceX的最新成果进一步巩固了我们在推理领域的领导地位:GB300 NVL72的每瓦性能最高可提升50倍,每token成本则比[Hopper]低35倍。此外,CUDA软件的持续优化仅在短短4个月内,就使GB200 NVL72的性能提升了高达5倍。英伟达创造了每token成本最低的产品,而采用英伟达解决方案的数据中心所创造的收入也位居行业之首。
我们创新的步伐,尤其是在如此大规模的背景下,可谓无与伦比。这得益于我们近200亿美元的年度研发预算,以及我们在计算与网络领域跨芯片、系统、算法和软件进行极致协同设计的能力。我们立志实现X因子式的跨越式突破,推动每瓦性能平均值持续跃升,并长期巩固我们的领导地位。
Q4数据中心收入达620亿美元,同比增长75%,环比增长22%,主要得益于Blackwell及其Blackwell Ultra产品的持续强劲表现。由于对英伟达基础设施旺盛的需求,即便是Hopper以及许多基于6年前Ampere架构的产品,在云端也已售罄。
自我们Grace Blackwell NVL72系统发布以来,已近一年。如今,Blackwell平台上的基础设施规模已接近9吉瓦,被各大云服务提供商、超大规模数据中心、人工智能模型开发者及企业广泛部署并投入使用。作为我们数据中心规模化基础设施的核心支柱,网络业务在本季度表现亮眼,收入达110亿美元,同比增长超过3.5倍。对我们的纵向扩展(scale-up,增强单台机器的能力,比如单台机器使用更多的CPU、GPU)和横向扩展(scale-out,集群系统,增加机器数量来扩展系统)技术的需求均创下历史新高,环比均实现两位数增长,这主要得益于NVLink、Spectrum-X以太网以及InfiniBand的强劲普及。按年同比计算,增长主要由NVLink 72纵向扩展交换机驱动,而Grace Blackwell系统在本季度贡献了约三分之二的数据中心收入。NVLink纵向扩展互连架构彻底改变了计算模式,充分展现了超级计算机所有芯片及全栈技术之间极致协同设计的强大威力。
在第四季度,我们宣布将为AWS提供NVLink支持,助力其定制硅芯片的集成。随着客户致力于将分散的数据中心整合为统一的吉级人工智能工厂,我们的Spectrum-X以太网横向扩展与纵向扩展网络业务势头强劲。纵观全年,我们的网络业务收入突破310亿美元,较2021财年(即我们收购Mellanox的那一年)增长超过10倍。
我们的需求格局广泛而多元,正逐步扩展至聊天机器人之外的更多领域。
首先,一场从传统机器学习向生成式人工智能的根本性平台变革已然发生。超大规模云服务商将海量传统工作负载升级至生成式AI后,其投资回报率已显现强劲迹象——包括搜索、广告生成和内容推荐系统等应用的显著成效,正推动我们最大的客户加快资本支出步伐。以Meta为例,其GEM模型的突破性进展促使Facebook上的广告点击量提升了3.5%,Instagram上的对话量也增长了超过1%,从而带来了可观的收入增长。借助相同的NVIDIA基础设施,Meta超级智能实验室得以训练并部署前沿的代理型AI系统(agentic AI systems)。目前,前沿代理型系统已进入一个关键转折点。Claude Code、Claude Cowork以及OpenAI编码器均已展现出实用的智能水平。这些系统的采用率正呈指数级飙升,相关代币(tokens)也实现了可观盈利,这使得扩大计算规模的需求变得尤为迫切。计算能力直接转化为智能水平与收入增长。据分析师预测,2026年全球前五大云服务商及超大规模云服务商的资本支出总额——它们合计占我们数据中心收入的50%以上——自今年初以来已累计增加近1200亿美元,目前总额即将逼近7000亿美元。我们持续看好,未来经典数据中心工作负载将逐步转向GPU加速计算,同时利用AI技术进一步提升当前超大规模工作负载的效能,这一趋势有望贡献我们长期机遇中的约一半份额。
每个国家都将建设和运营其人工智能基础设施的若干部分,这与当今电力和互联网的情况如出一辙。在2026财年,我们的主权人工智能业务同比实现了三倍以上的增长,收入超过300亿美元,主要得益于来自加拿大、法国、荷兰、新加坡和英国的客户。从长远来看,我们预计自身的主权市场机遇将至少与人工智能基础设施市场保持同步增长,因为各国在人工智能领域的支出与其GDP成正比。尽管美国政府已批准向中国客户少量供应H200产品,但我们迄今尚未实现任何收入。目前我们尚不清楚未来是否允许此类产品进口到中国。近期完成IPO的中国竞争对手正在取得进展,并有望从长远角度颠覆全球人工智能行业的格局。为了巩固美国在人工智能算力领域的领导地位,美国必须积极拥抱每一位开发者,成为包括中国在内的所有商业企业的首选平台。我们将继续与美国和中国政府保持沟通,推动美国在全球范围内保持竞争力。
我们于上月在CES展会上发布了Rubin平台,该平台由6款全新芯片组成:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC网卡、BlueField-4 DPU以及Spectrum-6以太网交换机。与Blackwell相比,这一平台采用四分之一数量的GPU即可训练MOE模型,推理时的token成本最高可降低10倍。本周早些时候,我们已向客户发出了首批Vera Rubin样品,目前一切进展顺利,预计将于今年下半年正式启动量产出货。凭借其模块化、无线缆托盘设计,Rubin在韧性和易维护性方面将优于Blackwell。我们预计每位云模型构建者都将部署Vera Rubin。
接下来我们来看游戏业务。游戏业务收入达37亿美元,同比增长47%,这主要得益于Blackwell产品的强劲需求以及供应链的改善。GeForce RTX是面向PC游戏玩家、创作者和开发者的领先平台。在第四季度,我们推出了多项新技术与新进展,包括采用人工智能技术将游戏画质提升至全新水平的DLSS 4.5;带来极致清晰画面、即使在动态场景下也能保持卓越表现的G-SYNC Pulsar;以及在主流AIPC框架中实现推理速度提升35%的LLM推理技术。
展望未来,尽管我们产品的终端需求依然强劲,渠道库存水平也保持健康,但我们预计,供应紧张将成为第一季度及之后游戏业务发展的主要阻力。
在专业可视化领域,收入首次突破10亿美元大关,达到13亿美元,同比增长159%,环比增长74%。本季度,我们推出了RTX PRO 5000 Blackwell工作站,配备72G字节的高速内存,专为运行大型语言模型和智能代理工作流的AI开发者打造。
汽车业务收入达6.04亿美元,同比增长6%,主要得益于对自动驾驶解决方案的强劲需求。在CES展会上,我们推出了Alpamayo——全球首个开放的推理视觉-语言-行动组合模型、仿真蓝图及数据集,助力打造具备思考能力的车辆。首款搭载NVIDIA DRIVE平台、采用Alpamayo技术的乘用车即将亮相全新梅赛德斯-奔驰CLA车型。物理人工智能已崭露头角,仅在2026财年就为英伟达贡献了超过60亿美元的收入。目前,Robotaxi出行服务正呈指数级增长,Waymo、特斯拉、Uber、WeRide和Zoox等多家企业已组建商用车队。预计这些车队规模将从2025年的数千辆增至未来十年内的数百万辆,这一市场有望催生数千亿美元的营收。伴随这一迅猛扩张,各大整车制造商和服务提供商纷纷基于英伟达平台开发产品,对算力的需求也将呈数量级增长。我们持续推动机器人技术的发展。借助全新的NVIDIA Cosmos与Isaac团队,我们面向包括波士顿动力、卡特彼勒、FranKaufman Hall Robotics、LG电子和NEURA Robotics在内的多家领军企业,提供开放模型、框架以及由英伟达赋能的机器人和自主机器。此外,为加速工业领域物理人工智能的普及应用,我们还宣布与达索系统、西门子和新思科技建立新的合作伙伴关系,将英伟达AI基础设施——Omniverse数字孪生、World Models及CUDA-X库引入数百万科研人员、设计师和工程师的日常工作中,共同推动全球各行业的创新发展。
接下来我们来看一下损益表的其他部分。按美国通用会计准则计算,毛利率为75%;按非美国通用会计准则计算,毛利率为75.2%,均较上一季度有所提升,这得益于Blackwell持续发力。按美国通用会计准则计算,运营费用环比增长16%,按非美国通用会计准则计算则增长21%,主要受新产品推出以及计算和基础设施成本增加的影响。
第四季度的非GAAP有效税率仅为15.4%,低于我们此前的预期,这主要得益于一次性税收优惠的影响。库存环比增长8%,同时采购承诺也大幅增加。我们已从战略层面积极储备了库存和产能,以满足未来几个季度的需求。这一规划的时间跨度比往常更长,反映出我们对需求前景的可见度有了显著提升。
尽管我们预计先进架构的供应紧张局面将持续,但我们依然坚信,凭借自身的规模优势、广泛的供应链以及长期稳固的合作关系,我们完全有能力把握住未来的发展机遇并从中获益。
我们在第四季度创造了350亿美元的自由现金流,2026财年全年则为970亿美元。全年,我们以股票回购和股息的形式向股东返还了410亿美元,占自由现金流的43%。我们持续投资于技术和生态系统,以推动市场发展、实现长期增长,并最终为股东带来优于市场或同业平均水平的总体回报。
重要的是,我们将继续以战略性和严谨的态度开展投资相关工作,并始终致力于向股东返还资本。
接下来,我来谈谈第一季度的展望。从本季度起,我们将在非GAAP业绩中纳入股票薪酬费用。股票薪酬是我们薪酬计划的一项基础性组成部分,旨在吸引并留住世界一流的人才。
首先,我来谈谈收入。预计收入将达到780亿美元,上下浮动2%。我们预计,大部分增长将由数据中心驱动。与上一季度一致,我们在展望中并未假设来自中国的任何数据中心计算收入。
预计GAAP和非GAAP毛利率将分别达到74.9%和75%,上下浮动不超过50个基点。就全年而言,我们预计毛利率将继续保持在70%中段水平。在为Vera Rubin过渡做准备的过程中,我们将及时向您通报我们的最新进展。
预计GAAP和非GAAP运营费用分别约为77亿美元和75亿美元,其中股票薪酬费用为19亿美元。展望全年,随着我们持续加大对不断扩大的业务机遇的投入,预计非GAAP运营费用将同比增长40%左右。在2027财年全年,我们预计GAAP和非GAAP税率将在7%至19%之间,不包括任何一次性项目以及税制环境的重大变化。
接下来,我将把话筒交给Jensen。我想他有一些话要跟我们分享。
黄仁勋,联合创始人、首席执行官、总裁兼董事
本季度,我们与领先的前沿模型开发者进一步深化并拓展了合作伙伴关系。我们近期庆祝了OpenAI推出基于Grace Blackwell NVLink 72系统进行训练和推理的GPT-5.3-Codex。GPT-5.3-Codex能够胜任涉及研究、工具使用和复杂执行的长期任务。目前,5.3-Codex已在英伟达内部得到广泛部署。我们的工程师们对它爱不释手。我们正继续与OpenAI携手推进合作协议的达成,相信很快就会有结果。我们对与OpenAI的持续合作倍感振奋——这家堪称百年一遇的公司自其初创伊始便与我们结缘,我们深感荣幸能与其携手共进。
Meta超智能实验室正以惊人的速度迅猛扩张。上周,我们宣布Meta将部署数百万台Blackwell和Rubin GPU、NVIDIA CPU以及Spectrum x以太网,用于模型训练与推理。本季度,我们还宣布与Anthropic建立合作伙伴关系,并向其公司投资100亿美元。Anthropic将在Grace Blackwell和Vera Rubin系统上进行推理训练。Anthropic的Claude Cowork智能代理平台堪称革命性创新,为企业的AI应用打开了闸门。随着Claude Cowork与OpenClaw的协同效应,Anthropic的Claude Cowork智能代理平台的计算需求正呈指数级增长,具备自主智能的ChatGPT时刻已然到来。凭借与Anthropic、Meta、OpenAI及xAI的深度合作,NVIDIA的各类产品已全面覆盖各大云平台,同时我们还具备从零开始构建全栈AI基础设施的能力,或在云端为客户提供全方位支持。我们处于独特地位,能够与前沿模型研发者在各个阶段展开合作——从模型训练、推理到AI工厂的规模化扩展。
最后,我们最近与Grok就其低延迟推理技术达成了一项非独家许可协议,并热烈欢迎这支才华横溢的工程师团队加入英伟达。正如我们此前与Mellanox合作一样,我们将把Grok的创新成果融入英伟达的架构中,以推动人工智能基础设施性能和价值迈上新台阶。我们期待在下个月的GTC大会上与大家分享更多详情。好了,现在把时间交回给您。
Toshiya Hari,投资者关系与战略财务副总裁
我们现在进入问答环节。请主持人开始选择问题提问。
问答环节
主持人
您的第一个问题来自美银证券的维韦克·阿亚。
维韦克·阿亚,美银证券,研究部
我想您刚才提到,你们现在已能清晰地看到2027年的增长前景,而且您的采购承诺似乎也反映了这种信心。不过,Jensen,我很好奇:当您审视那些顶尖的云客户时,今年的云资本支出接近7000亿美元,不少投资者担心,这一水平明年要继续增长可能会更加困难。此外,其中一些客户的现金流创造能力也在不断承压。我知道您对自己的发展路线图、采购承诺等等都非常有信心,但您对自己客户能否持续扩大资本支出的能力,究竟有多大的把握呢?如果他们的资本支出无法增长,英伟达还能否找到办法,在这个大环境中实现自身增长呢?
黄仁勋,联合创始人、首席执行官、总裁兼董事
我坚信他们的现金流将持续增长。原因其实非常简单:如今,我们已经见证了代理型人工智能的转折点,以及全球各地企业和机构对代理功能的巨大需求与价值。正因如此,对计算资源的需求空前高涨。在这个全新的AI时代,计算即收入;没有计算,就无法生成代币;没有代币,也就无法实现收入增长。因此,在这个全新的AI世界里,计算等于收入。我确信,目前正是这样一个关键转折点——我们已迈入这一转折点,正在创造能够为客户带来实际价值、同时为云服务提供商带来丰厚利润的盈利性代币。从简单的逻辑来看,也只需这样思考:计算模式已然发生变革。过去,软件运行于计算机之上,所需投入的资本支出规模相对有限,每年大约在3000亿至4000亿美元左右。而如今,这笔资金已大量转向了人工智能领域。要让人工智能真正发挥作用——要生成代币,就必须具备强大的计算能力。而这直接推动了业务增长,也直接转化为可观的收入。
主持人
下一个问题来自摩根士丹利的乔·摩尔。
约瑟夫·摩尔,摩根士丹利,研究部
恭喜您取得如此亮眼的业绩!您刚才提到,您对Anthropic以及可能包括OpenAI、[CoreWeave]等公司都进行了战略性投资,同时还投资了英特尔、诺基亚和新思科技等合作伙伴。显然,您正处于这一切的核心位置。能否请您谈谈这些投资的具体作用?另外,您如何看待资产负债表这一工具,它如何助力英伟达在生态系统中巩固自身地位并参与这一增长进程?
黄仁勋,联合创始人、首席执行官、总裁兼董事
众所周知,从根本上讲,英伟达一切的核心就是我们的生态系统。这正是大家喜爱我们业务的原因——我们生态系统的丰富性。全球几乎每一家致力于英伟达生态、基于英伟达平台的初创企业,都与我们息息相关。我们已进驻所有云端,遍布每一个本地数据中心,足迹遍及全球各地的边缘计算和机器人系统。成千上万的人工智能原生应用都是建立在英伟达之上的。我们希望抓住当前这一全新计算时代、全新计算平台转型的绝佳机遇,让所有人都能接入英伟达。如今,几乎所有应用都已基于CUDA构建,因此我们正站在一个极为有利的起点上。随着我们不断拓展整个人工智能生态系统——无论是语言AI、物理AI、AI物理、生物AI,还是面向制造业的机器人技术——我们都希望这些生态系统都能以英伟达为基石来打造。这为我们提供了一个绝佳的机会,让我们能够全方位地投资于整个生态系统的各个层面。如今,我们的生态系统比以往更加丰富多元。过去,我们主要专注于GPU这一计算平台;而如今,我们已发展成为一家全面提供人工智能基础设施的公司,我们的计算平台几乎覆盖了方方面面。从计算本身,到各类人工智能模型,再到网络连接以及我们的DPU,所有这些领域都拥有各自的计算栈。正如我之前所提到的,无论是在企业、制造业、工业、科研领域,还是在机器人技术中,每个生态系统都有其独特的技术栈。我们决心继续大力投入,持续扩展并深化我们的生态系统布局。
主持人
下一个问题来自摩根大通的哈兰·苏尔。
哈兰·瑟尔,摩根大通公司,研究部
网络业务在您整体数据中心业务组合中所占的比重持续上升,对吧?截至2026财年,您的网络业务收入每个季度都实现了同比加速增长——正如你们所提到的,第四季度更是实现了3.6倍的同比增长。显然,得益于您不断扩充和优化的网络产品组合,我似乎记得,去年上半年,您的Spectrum-X以太网交换平台的年化营收规模约为100亿美元。而到了去年下半年,这一数字似乎已提升至约110亿至120亿美元。Jensen,从您的订单情况来看,尤其是即将推出的Spectrum-XGS以及102T Spectrum-6交换平台,目前Spectrum平台的年化营收趋势如何?您预计到本日历年年底时,这一趋势会如何发展?
黄仁勋,联合创始人、首席执行官、总裁兼董事
是的。正如大家所知,我们自视为一家人工智能基础设施公司,而人工智能计算基础设施涵盖CPU、GPU,我们还发明了NVLink技术,旨在将单个计算节点扩展为庞大的计算机柜。我们首创了“机柜级计算机”的概念。我们不再单独交付一台台计算机节点,而是直接交付整套机柜。随后,借助Spectrum-X和InfiniBand,这些NVLink交换机规模扩展系统得以进一步扩展。我们同时支持这两种技术。此外,我们还通过Spectrum X的跨数据中心扩展功能,实现了更大规模的数据中心互联。因此,我们对网络架构的思考实际上是一种开放式的延伸——我们全面开放各项技术,让客户能够自由组合、灵活管理,并按自身需求定制部署方案,打造专属的数据中心。但归根结底,这一切都构成了我们整个平台不可或缺的一部分。而NVLink技术的诞生,更是极大地推动了我们的网络业务发展。如今,每个机柜都配备了9个交换机节点,每个节点内部又搭载了两颗芯片。未来,这些节点还将配备更多芯片。因此,我们每台机柜所承担的交换容量之大,着实令人惊叹。目前,我们已成为全球最大的网络设备供应商。如果从以太网的角度来看,我们大约在两年前才正式进入以太网交换市场。我认为,今天我们很可能已是全球最大的以太网网络设备供应商,而且这一地位很快就会更加稳固。
因此,Spectrum X以太网对我们而言可谓大获成功。不过,我们始终敞开大门,欢迎各种不同的网络连接方式。有些人特别钟情于InfiniBand的低延迟和可扩展性,我们当然会继续支持这一技术。而另一些人则更倾向于基于以太网构建整个数据中心的网络整合方案。为此,我们专门打造了一种融合了人工智能的以太网技术——一种在数据中心内进行数据处理的新方式,我们在这一领域表现极为出色。我们的Spectrum-X性能便充分印证了这一点。当你建设一座价值100亿美元或200亿美元的人工智能工厂时,仅仅10%的差异,就可能实现高达20%的效率提升,以及网络资源利用率的显著改善——而这直接意味着实实在在的经济效益。正因如此,英伟达的网络业务正迅猛发展。我认为,这背后的关键就在于我们成功地构建起了高效的人工智能基础设施,而人工智能基础设施市场本身也正以惊人的速度增长。
主持人
下一个问题来自康托·菲茨杰拉德的CJ Muse。
克里斯托弗·缪斯,康托·菲茨杰拉德公司研究部
我想,对于处理大容量上下文窗口内容的CPX(注:指Rubin CPX芯片),Grok或许会推出专门针对解码的解决方案。我很想知道,我们该如何规划您的未来路线图呢?我们是否应更多地关注根据工作负载或客户定制化的硅芯片设计——这一点尤其得益于英伟达近期向可扩展架构的转型,这将为我们的战略提供有力支持?
黄仁勋,联合创始人、首席执行官、总裁兼董事
我们并不排斥——恰恰相反,我们希望——每个人都想尽可能地延长、扩展和放宽限制(extend, push out dilate)。但原因在于,每次放宽一个限制(cross a dilate),就意味着要跨过一个接口(cross an interface);而每次跨过接口,都会无谓地增加延迟和功耗。我们并非对放宽限制(dilate)敏感,实际上我们早已在放宽限制(dilate),只是尽量只在别无选择时才不得已使用。因此,如果你仔细观察Grace Blackwell架构和Rubin架构,就会发现我们采用了两个巨型的光罩限制型芯片,然后我们[听不清],并将它们紧密集成在一起,从而大幅减少了架构间的交叉次数。这种放宽限制(dilate)[听不清]的设计理念,在竞争对手的架构效能中也能看到。以英伟达为例,人们常将其称为我们的软件优势。然而,究竟从哪里算起是软件的起点,又在哪里界定架构的终点,其实很难明确划分。事实上,我们的软件之所以如此高效,正是因为我们拥有极为出色的架构设计。因此,CUDA架构毫无疑问地更具实效性、更高效,每浮点运算、每瓦特所实现的性能都远超当前任何一种计算架构——而这全都归功于我们独特的架构设计思路。
关于我们如何思考Grok以及低延迟解码器,我有一些很棒的点子,很想在GTC上与大家分享。但简单来说,正是由于CUDA的存在,我们的基础设施具备了极强的灵活性,而我们也将继续保持这种优势。我们所有的GPU在架构上都相互兼容——这意味着,当我今天专注于为Blackwell优化模型时,所有这些努力和对软件栈及新模型优化的投入,同样也会惠及Hopper和Ampere。这正是为什么A100即便在推向市场多年后,依然保持着新鲜感和卓越性能的原因所在。架构兼容性使我们能够做到这一点,让我们得以在软件工程和优化领域进行大规模投入,因为我们深知,无论是在云端还是本地部署,从历代架构到各类GPU,我们整个已部署的庞大用户群都将从中受益。因此,我们将继续坚持这一策略,从而延长产品的使用寿命,推动创新、提升灵活性与速度,最终转化为卓越的性能——尤为重要的是,实现客户所关注的每美元性能和每瓦性能。接下来,关于Grok,大家不妨亲临GTC现场一睹为快;而具体而言,我们将以类似NVIDIA通过Mellanox扩展自身架构的方式,借助Grok这一加速器来进一步拓展我们的架构体系。
主持人
下一个问题来自伯恩斯坦研究公司的斯泰西·拉斯贡。
斯泰西·拉斯贡,伯恩斯坦机构服务有限责任公司,研究部
科莱特,我想稍微深入探讨一下今年按季度增长的展望。也就是说,本季度数据中心的环比增幅超过了100亿美元,而指引似乎也暗示,这100亿美元的环比增长主要来自数据中心等领域。那么,随着今年的推进,尤其是Rubin在下半年加速发力时,您如何看待这一趋势?Blackwell已经推动了相当显著的环比增长速度。我们是否应该期待,在Rubin接棒后,也能迎来类似的强劲增长势头呢?
另外,我还想请您谈谈您对游戏业务的预期。我理解内存问题以及其他各方面的情况。您认为,在27财年,游戏业务还能实现同比正增长吗?还是说,鉴于内存方面的压力,这一增长将面临更大挑战?请问您对此有何看法?这两个问题拜托了。
科莱特·克雷斯,执行副总裁兼首席财务官
谢谢,斯泰西。让我先从未来的收入说起。我们依然按季度来审视收入情况。展望全年,我们肯定会继续销售并提供Blackwell产品——很可能与Vera Rubin同期推向市场。这套架构非常出色,能够帮助客户迅速搭建起系统,并且我们已经针对不同客户规划了大量订单,以满足他们的需求。目前尚难确定Vera Rubin的具体销量,其产能爬坡将从下半年开始。不过,这一点我们稍后会进一步明确。但有一点可以肯定:市场需求强劲,各方兴趣浓厚。我们预计几乎每一位客户都会采购Vera Rubin。问题在于,我们何时能正式进入市场,以及客户又能在多快的时间内将其部署到自己的数据中心中。这就是你刚才提到的第一部分内容。
第二部分重点谈到了我们的游戏业务。尽管我们非常希望有更多供应,但我们认为,在未来几个季度内,供应仍将十分紧张。如果年底前情况有所改善,我们或许可以思考相对去年的同比增长情况。不过,目前我们还无法确定具体状况,一旦有最新消息,我们会尽快再向您汇报。
主持人
下一个问题来自花旗银行的阿蒂夫·马利克。
阿蒂夫·马利克,花旗银行研究部
Jensen,我想了解一下,随着越来越多的AI投资资金流向推理工作负载,CUDA的重要性是否有所凸显?
黄仁勋,联合创始人、首席执行官、总裁兼董事
如果没有CUDA,我们根本无从谈起推理任务。几年前我们推出的TensorRT LLM全栈推理方案,至今仍是全球性能最优的推理方案。要将这一方案针对NVLink进行优化,我们必须研发并创新出全新的并行化算法——这些算法运行于CUDA之上,能够将工作负载和推理任务合理分配,从而充分利用NVLink 72所实现的聚合带宽。正是凭借NVLink 72,我们得以将每瓦能耗下的性能提升至前代产品的50倍之多!这简直是一次令人难以置信的飞跃,而且完全合乎情理。NVLink 72堪称一项伟大的发明,其实现过程可谓困难重重。从交换技术的开发、交换机的解耦,到系统机架的搭建,所有这些环节我们都公开透明地完成,所有人都清楚我们为此付出了多么艰辛的努力。然而,最终取得的成果却令人惊叹不已。如今,每瓦能耗下的性能提升了50倍,每美元投入带来的性能则提升了35倍。这种推理性能的巨大飞跃意义非凡——尤其值得强调的是,对我们的客户而言,推理性能直接等同于收入增长。这是因为智能体(agent)正在生成海量的token,且其效果极为显著。当智能体进行代码编写时,它们每分钟甚至每小时就能生成数千、数万乃至数十万token。因此,这些智能体系统正不断衍生出更多不同的智能体,协同作战。由此产生的token数量呈指数级增长,这就要求我们以更高的速度进行推理处理。而当你以更高速度进行推理时,每一个token都可被量化为美元价值,进而直接转化为收入。换句话说,推理性能直接决定了客户的收入水平。对于数据中心而言,每瓦能耗所产生的推理token数量,也直接转化为云服务提供商的收入。究其原因,就在于所有数据中心都受到电力容量的限制。无论你拥有多少个数据中心,每个数据中心——无论是100兆瓦还是1吉瓦——都必然面临电力上限。因此,能效最高的架构便脱颖而出:因为每个token的性能都能以每瓦为单位精确衡量,每个token的价值都被量化为美元。每瓦能耗产生的token数量,直接转化为每瓦美元价值,而每吉瓦的能耗又直接转化为收入。由此可见,如今每一位云服务提供商都已深刻理解这一点:每一笔资本支出最终都将转化为计算能力;而采用恰当的架构,则能最大化收入,实现计算即收入的目标。如果今天不投资算力,不加大计算投入,就不可能实现收入的增长。这一点,我想每个人都能充分理解。计算即收入,选择正确的架构变得无比重要——这已不仅仅是战略层面的问题,更直接影响着企业的盈利表现。选择一款能效比最优的架构,实际上就是决定一切的关键所在。
主持人
下一个问题来自梅利斯研究公司的本·赖茨斯。
本杰明·赖茨斯,梅利斯研究有限责任公司
首先,我要点赞你们在非GAAP报表中纳入股票薪酬的做法,我认为这真是个高明的举措。不过,这并不是我想问的问题。我的真正疑问在于毛利率以及70%中段这一长期水平的可持续性。我们是否应将供应链可见性持续到2027日历年的事实解读为:这一水平的毛利率将一直保持到那时?另外,Jensen,那之后呢?在内存消耗方面,有没有什么创新成果可以披露,让我们更有信心长期维持这一毛利率水平?
黄仁勋,联合创始人、首席执行官、总裁兼董事
我们毛利率最关键、最重要的驱动因素,其实就是为客户提供跨代的领先性能。这一点至关重要。如果我们能实现每瓦能耗的性能超越摩尔定律的极限,如果我们的系统每美元所实现的性能,远超其成本和售价,那么我们就能持续保持高毛利率。这便是最简单却至关重要的理念。我们之所以发展如此迅猛,首要原因在于:全球对各类代币(token)的需求,随着我们经历的那些转折点,如今已呈完全指数级增长。我想我们每个人都能明显感受到这一点——甚至我们云端部署的6年前的GPU也已被消耗殆尽,价格正一路飙升。因此,我们深知,当今软件开发方式所需的计算量正以指数级速度增长。正因如此,我们的战略是每年推出一套完整的AI基础设施。今年,我们已推出了6款全新芯片;而Rubin下一代产品也将带来诸多新芯片。在每一世代的产品中,我们都致力于实现每瓦能耗和每美元成本上数倍于以往的性能提升。正是这种快速迭代的步伐,以及我们超强的协同设计能力,使我们能够为客户持续创造价值与效益。而这,正是我们所传递价值中最核心、最不可或缺的一环。
主持人
下一个问题来自新街研究的安托万·沙凯班。
安托万·沙凯班,新街研究有限责任公司
我想了解一下空间数据中心,这是你们一些客户正在考虑的项目。您认为这一方案的可行性如何?前景如何?目前的经济状况又如何?您觉得随着时间推移,这一领域会如何发展?
黄仁勋,联合创始人、首席执行官、总裁兼董事
嗯,如今的经济性并不理想,但随着时间推移,情况会逐步改善。众所周知,太空中的运作方式与地球截然不同。那里能源极为丰富,尽管太阳能电池板体积庞大,但太空中的可用空间却绰绰有余。此外,太空环境散热条件特殊——虽然太空寒冷,但却缺乏空气流动。因此,唯一的散热途径只能依靠热传导,而为此设计的散热器尺寸也相当大。显然,液冷方案根本不可行,因为液冷系统既笨重又容易冻结。所以,我们在地球上惯用的那些冷却方法,在太空中实施起来会有些许差异。不过,目前有许多计算难题正是迫切需要在太空中解决的。事实上,英伟达已是全球首家将GPU送入太空的企业,Hopper GPU目前已成功部署于太空之中。而在太空中应用GPU的最佳场景之一,便是成像技术——借助光学设备与人工智能,我们能够以超高分辨率进行成像。通过这种技术,我们可以对不同角度的图像进行重新投影计算,实现图像放大、降噪处理,从而以极高的分辨率、超大尺寸且快速地获取和呈现图像。如果单纯依靠将海量的成像数据传回地球再进行处理,那将难上加难。相比之下,在太空中直接完成这些计算要轻松得多。之后,我们只需忽略所有已收集和处理的数据,直到发现某些有趣的现象或目标为止。因此,人工智能在太空领域的应用前景十分广阔,必将带来诸多极具价值且引人入胜的创新成果。
主持人
下一个问题来自Evercore ISI的马克·利帕西斯。
马克·利帕西斯,Evercore ISI机构股票研究部
我想就您刚才在关于收入多元化讨论中提到的观点再深入探讨一下。科莱特,我记得您曾提到,超大规模厂商的收入占比超过50%,但增长主要由其他数据中心客户所驱动。作为澄清,我想确认一下我是否理解正确:这是否意味着您的非超大规模客户增速更快?如果是这样,他们究竟有何不同——您能否帮我们解答一下,这些非超大规模客户到底在做什么与超大规模客户不同的事情?他们是采取了与超大规模客户相同的做法,只是规模有所不同吗?此外,您是否预计这种趋势会持续下去?您认为您的客户群是否会逐步演进,最终使非超大规模客户成为您业务中占比更大的部分?
科莱特·克雷斯,执行副总裁兼首席财务官
是的。我们来看看能否就这个问题提供一些帮助。正如我们之前所阐述的,我们的前五大客户包括云服务提供商和超大规模云厂商,目前他们占我们总收入的大约50%。因此,与我们合作的各类公司种类繁多、形态各异——既有通过我们的AI模型开发者,也有面向企业级客户,还有涉足超级计算领域,甚至服务于主权机构。此外,还有许多其他不同类型的客户。不过,您说得没错,这一领域的发展速度非常迅猛。我们在平台上与各类云服务商的合作关系十分稳固。如今,我们的客户群体也呈现出极大的多样性,遍布全球各地。这种多元化格局将为我们带来巨大优势,让我们能够更好地满足不同客户的需求。我来问问Jensen是否想就此补充一些内容?
黄仁勋,联合创始人、首席执行官、总裁兼董事
是的,这正是我们生态系统的一大优势——所有技术都建立在CUDA之上。我们是唯一一个能够覆盖所有云端、为每一家电脑厂商提供加速计算平台,同时也能在边缘端广泛部署的公司。如今,我们正积极布局电信领域。显而易见,未来的无线电台都将由人工智能驱动,而未来的无线网络本身也将成为一个计算平台——这一点已成定局。然而,要实现这一愿景,必须有人率先研发相关技术。为此,我们通过Aerial打造了一个专门的平台。目前,我们的技术几乎已应用于每一种机器人和每一辆自动驾驶汽车中。CUDA凭借其独特优势,一方面充分利用了专用处理器的卓越性能——尤其是我们GPU内部的Tensor核心;另一方面,CUDA的灵活特性使我们能够轻松应对各种问题:从语言处理、计算机视觉、机器人技术,到生物研究、物理模拟,乃至各类人工智能应用与各种计算算法。因此,我们客户群体的多样性正是我们最强大的优势之一。当然,第二点同样重要:如果没有我们自己的生态系统,即便我们的处理器具备可编程能力,如果我们不积极培育自身的生态系统——就像我们今天正在做的那样,持续投资于未来生态体系并不断优化它——那么,我们很难靠单纯的设计获胜,也难以真正实现自身生态系统的壮大与发展。正因如此,我们才能依托自己所打造的平台,自然而然地发展壮大我们的生态系统。
最后,还有一点非常重要,那就是我们与OpenAI、Anthropic、xAI以及如今的Meta所建立的合作伙伴关系——当然,还有全球几乎所有的开源项目。在Hugging Face平台上,共有150万个人工智能模型,它们全部基于NVIDIA CUDA运行。因此,从整体来看,开源项目或许代表着全球第二大模型规模——第一大是OpenAI,而第二大则可能是所有开源项目的总和。正是由于NVIDIA能够支持如此庞大的开源生态,我们的平台才具备极高的通用性、极强的易用性,同时也非常安全可靠,值得投资。这也就造就了客户群体的多样化,平台类型的多元化,以及在全球每个国家都能广泛使用的局面,因为我们全面支持着全球生态系统。
主持人
下一个问题来自富国银行的亚伦·雷克斯。
亚伦·雷克斯,沃尔夫冈证券有限责任公司,研究部
是的。我想,我们还是应该坚持平台化和极致协同设计的理念。过去一个季度的一些消息表明,英伟达正积极推动力量,将Vera CPU以独立解决方案的形式推向市场。所以,Jensen,我很好奇,在接下来的架构演进中,Vera扮演着怎样的重要角色?这种演进更多是由推理工作负载的日益普及,还是由其异构性所驱动呢?我特别想了解一下,您如何看待英伟达在这方面的发展,尤其是在独立CPU这一领域?
黄仁勋,联合创始人、首席执行官、总裁兼董事
是的,谢谢!我将在GTC上跟大家详细介绍这一点。但总的来说,我们在CPU架构设计上做出了与全球其他CPU截然不同的根本性决策。它是唯一一款支持LPDDR5的数据中心CPU,专为超高数据处理能力而打造。之所以如此,是因为我们所关注的大多数计算问题都以数据为核心,人工智能便是其中之一。这款CPU在单线程性能与带宽的匹配度上堪称登峰造极。我们做出这些架构决策,正是考虑到整个AI流程——从数据处理到训练前的各个阶段,甚至在开始训练之前,都离不开高效的数据处理。因此,我们经历了数据处理、预训练,以及训练后的模型优化阶段。如今,人工智能正在学习如何更好地运用各种工具;而这些工具中,许多仅能在纯CPU环境中运行,或者在CPU搭配GPU加速的环境中运行。Vera正是为训练后阶段量身打造的卓越CPU。因此,在整个人工智能流水线中,许多应用场景都需要大量使用CPU。我们同样钟爱CPU和GPU。当我们将算法加速到极致时,根据阿姆达尔定律,我们需要真正极其快速的单线程CPU。正因如此,我们打造了Grace,使其在单线程性能上表现非凡、出类拔萃;而Vera的表现更是远超这一水准,堪称顶尖之选。
主持人
下一个问题来自瑞银的蒂姆·阿库里。
蒂莫西·阿库里,瑞银投资银行,研究部
科莱特,我想了解一下关于资本配置的情况。我知道你们大幅提高了购股承诺,但听起来似乎已经度过了难关,今年很可能将产生约1000亿美元的现金。然而,无论业绩表现多么出色,股价却一直涨得不多。因此,我觉得你们可能觉得现在以这个价格回购大量股票是个相当不错的时机。所以想请教一下,为什么不干脆大手笔地投入资金,进行一次大规模的股票回购呢?
科莱特·克雷斯,执行副总裁兼首席财务官
那么,感谢您的提问。我们非常审慎地看待资本回报问题,也坚信,我们能做的最重要的事情之一,就是全力支持眼前这个至关重要的生态系统——这个生态体系源自四面八方,包括我们的供应商,以及我们为确保供应链稳定所必须开展的工作。同时,我们还将从产能等方面全方位地支持这些合作伙伴,尤其是那些率先采用我们的产品,并将其部署于平台上的人工智能解决方案的早期参与者。因此,我们将持续把这作为我们流程和战略投资中极为重要的一环。当然,我们仍在继续回购自己的股票,同时也坚持派发股息。未来一年,我们也将继续积极寻找独特而合适的机会,以实施各类增持操作。
主持人
最后一个问题是来自高盛的吉姆·施奈德。
詹姆斯·施奈德,高盛集团有限公司,研究部
Jensen,你此前曾指出,到2030年,数据中心资本支出有望达到3至4万亿美元,这意味着增速可能加速——至少在接下来的这一季度里,你已对此有所指引。问题在于,你认为哪些关键应用领域最有可能推动这一转折点?是实体人工智能、代理型人工智能,还是其他领域?此外,你对那3至4万亿美元的规模预期是否依然持乐观态度?
黄仁勋,联合创始人、首席执行官、总裁兼董事
是的。让我们从几个不同的角度来深入探讨一下这个问题。首先,我们来看看最基本的原理:未来软件开发的方式将完全由人工智能驱动,以代币为核心。我想,每个人都在谈论代币经济学,谈论数据中心如何生成代币,而推理过程本质上也是在生成代币——我们自己也在生成代币。刚才我们提到,英伟达的NVLink 72技术使我们每单位能耗下的代币生成效率比上一代提升了50倍。因此,代币生成几乎成了未来所有软件乃至整个计算领域的核心所在。然而,如果我们回顾过去使用计算的方式,会发现过去软件对计算的需求只是未来所需的一小部分。而如今,人工智能已经到来,而且它绝不会退回去。相反,人工智能只会越来越强大。所以,如果你仔细想想就会明白:过去全球每年在传统计算上的投入大约是3000亿到4000亿美元;而现在,人工智能时代来临,所需的计算量却足足高出1000倍!计算需求激增,如果大家依然坚信这其中蕴含着巨大价值——我们稍后还会详细讨论这一点——那么全球势必会加大投资,以满足这种代币生成的需求。换句话说,全球对代币生成能力的需求远远不止7000亿美元。我相当确信,未来我们将持续不断地生成代币,从现在起,我们还将持续加大对计算能力的投资。从根本上讲,由于每一家公司都离不开软件,而每款软件都将依赖于人工智能,因此每家公司都会成为代币的生产者——这也正是我称之为“人工智能工厂”的原因。如果你是云数据中心里的企业,你的收入来源就是通过人工智能工厂生成的代币;如果你是一家企业级软件公司,你将为运行在你工具之上的智能系统生成代币;如果你是一家机器人制造商,尤其是自动驾驶汽车领域,你所拥有的巨型超级计算机本质上就是人工智能工厂,它们生成的代币最终会融入你的汽车,成为汽车的人工智能核心。此外,你还必须在汽车内部安装计算机,以便持续不断地生成代币。因此,我们现在可以非常确定,这正是计算的未来发展方向。那么,为什么我们可以如此肯定这就是计算的未来呢?原因在于,过去我们开发软件的方式都是预先录制好的,一切内容都早已被“固定”下来——我们提前编译好软件,提前写好内容,提前录制好视频。但如今,一切都变成了实时生成的模式。当内容实时生成时,你可以根据具体的人、情境、查询以及意图等多方面因素综合考量,从而生成全新的软件成果——我们称之为“人工智能”,即具备自主智能的人工智能。因此,这种实时生成所需的计算量,远远超过那些预先录制好的内容。就像一台电脑的计算能力远超一台预先录制好的DVD刻录机或播放器一样,人工智能所需的计算能力也远超过去我们开发软件的方式。那么,关于计算和可持续性的问题呢?从计算机科学的层面来看,这正是未来计算的发展方向。而从产业层面来说,我们所有的公司最终都依赖于软件,尤其是那些云端公司更是如此。如果新一代软件需要生成代币,而这些代币又能够实现货币化,那么很自然地,这些公司的数据中心扩建将直接推动其收入增长。换句话说,计算能力直接驱动着收入增长。我认为,这一点大家都已心知肚明。事实上,越来越多的人也开始逐渐意识到这一点了。
最后,人工智能为世界带来的种种益处最终必须转化为实实在在的收入。而我们正亲眼目睹——确切地说,就在我们此刻站立的当下,代理型AI(agentic AI)正迎来一个转折点,这一转折几乎就在最近两三个月内悄然发生。当然,在业内,我们其实早已察觉到这一趋势,大概已有半年之久。但如今,全球终于真正意识到了代理型AI所带来的变革性拐点。这些智能体(agent)极其聪慧,能够切实解决各种现实问题。如今,编码工作已明显得到代理型AI系统的强力支持,我们英伟达的每一位程序员都在广泛使用代理型AI智能系统——无论是Claude Code还是OpenAI Codex,有时甚至同时使用两者,或者再加上Cursor,具体选用哪一种工具,往往取决于实际应用场景。这些智能体不仅拥有自己的设计伙伴和工程合作伙伴,还能与他们紧密协作,共同攻克难题。你可以看到,相关公司的营收正呈指数级飙升。以Anthropic为例,我认为它们的年营收在短短一年内就翻了十倍,而且目前产能严重受限,因为市场需求大得惊人,对Token的需求更是空前高涨。Token的生成速率正以指数级速度增长。同样的情况也发生在OpenAI身上,它们的市场需求同样强劲无比。因此,它们能投入运行、上线的计算资源越多,营收增长的速度就越快。这再次印证了我之前所提到的观点:推理即收入,计算能力就是当今新世界的创收引擎。从很多方面来看,这也正是我们为何称其为一场全新工业革命的原因所在。如今,全新的工厂、全新的基础设施正在如雨后春笋般拔地而起,这种全新的计算方式已然不可逆转。因此,只要我们坚信生成Token将成为未来计算的核心模式——这一点我深信不疑,业界也普遍认同——那么从现在起,我们将持续加大产能建设力度,并不断拓展规模。
如今,我们所看到的这一波浪潮正是代理型AI的转折点。而再下一个转折点,则是物理智能——届时,我们将把人工智能及这些代理型AI系统应用于实体领域,比如制造业、机器人技术等。因此,这将是一个巨大的发展机遇。
主持人
问答环节到此结束。现在我把电话转给Toshiya Hari。
Toshiya Hari,投资者关系与战略财务副总裁
最后,请注意,Jensen将于3月4日在旧金山的摩根士丹利TMT大会上参加一场炉边谈话。他还将于3月16日在圣何塞的GTC大会上发表主题演讲。我们定于5月20日召开财报电话会议,讨论2027财年第一季度的业绩。感谢各位今天与我们一同参与。主持人,请结束本次通话。
主持人
谢谢。今天的电话会议到此结束。您可以现在挂断了。


