推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  带式称重给煤机  减速机型号  无级变速机  链式给煤机  履带  减速机 

英伟达最新财报电话会议,黄仁勋提问环节精选

   日期:2026-02-27 00:44:46     来源:网络整理    作者:本站编辑    评论:0    
英伟达最新财报电话会议,黄仁勋提问环节精选

1.CJ Mu­se : 下午好。感谢接受提问。鉴于大上下文窗口应用、Gr­ok以及可能需要添加特定解码解决方案的情况,我很好奇我们该如何看待你们未来的路线图。 我们是否应该预期,根据工作负载或特定客户进行定制化的芯片设计(Cu­s­t­o­m­i­z­ed Si­l­i­c­on)将越来越成为英伟达的重点? 特别是借助于你们向“裸片互连(die-to-die/di­al-in)”的转变?非常感谢。

黄仁勋: 不,我们不这样认为。大家都应该希望尽可能地推迟使用裸片互连(die-to-die)。

原因在于,每次你跨越一个裸片互连接口,你都增加了一道接口。每次跨越接口,你就会不可避免地增加延迟,无谓地增加功耗。我们并不排斥裸片互连技术,实际上我们已经在使用了,但我们尽量只有在别无选择的情况下才使用它。所以,如果你看看Gr­a­ce Bl­a­c­k­w­e­ll架构和Ru­b­in架构,我们使用的是两块达到光刻掩模极限(re­t­i­c­le-li­m­i­t­ed)的巨型芯片,并且将它们结合在一起,这样减少了架构跨越。

这种互连(接口)的损耗会在竞争对手的架构效能中显现出来。说到英伟达,人们常称之为我们的软件优势,但究竟哪里是软件的功劳,哪里是架构的功劳,其实很难区分。我们的软件之所以高效,是因为我们的架构太优秀了。

CU­DA架构毫无疑问比市面上的任何计算架构都更有效、更高效,能提供更高的每瓦浮点运算性能,这是因为我们的架构设计方式。

关于我们如何看待Gr­ok以及低延迟解码器,我有一些很棒的想法,希望能GTC大会上与你分享。但最简单的理念是:得益于CU­DA,我们的基础设施具有令人难以置信的多功能性,我们将继续保持这一点,我们所有的GPU在架构上都是兼容的。这意味着,当我今天致力于为Bl­a­c­k­w­e­ll优化模型时,所有这些针对优化软件栈和新模型所付出的努力和投入,也会使Ho­p­p­er受益,也会使Am­p­e­re受益。这就是为什么在我们将其部署到世界各地数年后A100依然感觉很新且性能依然出色的原因。

架构兼容性让我们做到了这一点。它让我们能够在软件工程和优化上投入巨资,因为我们知道,我们在云端、本地、以及任何地方运行的各代GPU架构的整个安装基数都将从中受益。

我们将继续这样做,它让我们能够延长产品的使用寿命,赋予我们创新的灵活性和速度。这一切为我们的客户转化为性能,并非常重要的是——转化为每美元性能和每瓦性能。所以,关于我们将与Gr­ok做什么,你来GTC大会就知道了。但我们将做的是,用Gr­ok作为加速器来扩展我们的架构,这与我们当年用Me­l­l­a­n­ox扩展英伟达架构的方式非常相似。

2.Sarah: 最后一个问题来自高盛集团的 Jim Schneider。

Jim Schneider: 感谢公司接受提问。Jensen,您此前曾预测 2030 年全球数据中心资本支出规模有望达到 3 万亿至 4 万亿美元,这意味着行业增速将进一步加快,而公司也指引下一季度营收将继续加速增长。 想请教一下,推动这一增长拐点的核心应用领域有哪些?是实体 AI、智能体 AI,还是其他领域?您是否仍看好 3 万亿至 4 万亿美元的市场规模目标?

黄仁勋: 我们从多个角度来分析这一问题。首先从底层逻辑来看,未来基于 AI 的软件开发,将以令牌为核心驱动。如今,行业普遍关注令牌经济,数据中心的核心功能是生成令牌,推理的本质也是生成令牌,英伟达的核心业务正是为令牌生成提供算力支持。我们常说,英伟达 NVLink 72 系统让令牌生成的每单位能源性能提升了 50 倍,足以见得令牌生成已成为未来软件和计算领域的核心。

回顾过去,传统软件开发对算力的需求,与未来 AI 时代的算力需求相比,可谓微乎其微。 AI 已全面落地,且将持续发展、不断完善,不会倒退。过去,全球每年在传统计算领域的投资约为 3000 亿至 4000 亿美元,而 AI 的到来,让算力需求较传统计算提升了上千倍 —— 未来的算力需求将呈现爆发式增长。

只要 AI 能持续创造价值(这一点我们稍后会详细说明),全球就会持续投资算力建设,以满足令牌生成的需求。因此,全球对令牌生成能力的需求,远非 7000 亿美元的资本支出所能满足。 我坚信,全球将持续推进令牌生成能力建设,不断加大算力投资 —— 核心原因在于,所有企业的发展都依赖软件,而所有软件的未来都离不开 AI,因此所有企业都将参与令牌生成。这也是我们将数据中心称为 “AI 工厂” 的原因。

无论是云计算服务商,都需要 AI 工厂生成令牌,推动营收增长;企业级软件公司,需要通过令牌生成为其工具之上的系统提供支持;机器人制造企业和自动驾驶汽车企业,早已显现这一趋势 —— 其背后都有超算中心作为支撑,而这些超算中心本质上就是 AI 工厂,为设备生成令牌,赋予其 AI 能力;同时,设备内部也需要配备计算芯片,实现令牌的持续生成。因此,我们坚信,这就是计算领域的未来。

为何这一未来趋势具有高度确定性?因为传统软件开发采用的是预录制模式,所有内容都提前设定 —— 软件提前编译、内容提前编写、视频提前录制;而 AI 时代的软件开发,所有内容都通过实时生成实现。基于实时生成,软件能结合用户特征、场景、查询需求和意图,生成个性化的结果,这就是我们所说的 AI,即智能体 AI。这种实时生成的模式,对算力的需求远高于传统的预录制模式。

就像计算机的算力远高于预录制的 DVD 播放器一样,AI 对算力的需求,也远非传统软件开发所能比拟。

从计算机科学的底层来看,这种算力需求的提升具有必然性,是未来计算领域的发展方向;从产业层面来看,所有企业的核心竞争力最终都将体现在软件上,云计算企业更是如此。如果新的软件模式需要通过令牌生成实现价值,且令牌能实现商业化,那么数据中心的建设自然会直接推动企业营收增长 —— 算力驱动营收,这一点已成为行业的普遍共识。

最后,AI 为全球创造的价值,最终都将转化为企业营收。目前,智能体 AI 已迎来发展拐点,这一拐点在过去两三个月内已清晰显现 —— 其实在行业内部,我们半年前就已察觉到这一趋势。如今,全球都已意识到智能体 AI 的发展潜力:智能体的智能水平已达到实用级,能解决实际的商业问题。

如今,代码开发已全面由智能体 AI 系统支撑,英伟达的所有程序员都在使用相关工具 ——Claude Code、OpenAI Codex,或是 Cursor,具体根据使用场景选择,有时甚至会同时使用多款工具。智能体已成为程序员的合作伙伴、工程研发的协作方,助力解决各类研发问题。相关企业的营收也因此实现爆发式增长 —— 例如 Anthropic,营收在一年内增长了十倍,目前因产能限制,无法满足市场的旺盛需求。令牌需求呈指数级增长,生成速度也在持续提升,OpenAI 也面临着同样的情况,市场需求十分迫切。

因此,企业的算力部署速度越快,营收增长就越迅速。这也印证了我之前的观点:推理即营收,算力即营收,这就是 AI 新时代的核心逻辑。从诸多方面来看,这标志着新一轮工业革命的到来 —— 全新的工厂和基础设施正在建设,这种全新的计算模式,将成为未来的主流,不会倒退因此,只要我们坚信令牌生成是计算领域的未来(我对此深信不疑,且行业也普遍认可),全球就会持续推进算力基础设施建设,并不断扩大规模。 目前,我们正迎来智能体 AI 的发展浪潮,而接下来的下一个浪潮,就是实体 AI—— 将 AI 和智能体系统应用于制造业、机器人等物理领域,这一领域将为我们带来巨大的发展机遇。

3.At­if Ma­l­ik: 感谢公司接受提问。Je­n­s­en,随着 AI 领域的投资更多向推理负载倾斜,能否谈谈 CU­DA 的重要性?

黄仁勋: 我们推出的 Te­n­s­o­r­RT-LLM 是目前性能最优的推理架构,而要针对 NVL 平台对其进行优化,就需要在 CU­DA 之上,研发并创新全新的并行化算法。推理工作的核心是负载分配,充分发挥算力的聚合优势。智能体系统会生成多个智能体协同工作,由此产生的to­k­en数量呈指数级增长,这就要求推理速度实现大幅提升。推理速度的提升,结合to­k­en的商业化,将直接转化为客户的营收 —— 数据中心的千兆级算力,直接对应着营收规模。

如今, 所有云计算服务商和超大规模云计算企业都已认识到这一点:资本支出转化为算力,而优秀的架构能让算力最大化转化为营收,简言之,算力即营收。当下不投入算力建设,未来就无法实现营收增长,这已是行业的普遍共识。 架构的重要性不言而喻,其战略价值进一步提升,直接影响企业的盈利水平。选择每瓦性能最优的架构,成为企业的核心决策

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON