今天早上起来刷财报,数字出来的一瞬间我愣了一下。
681亿美元。季度营收。
同比涨了73%。
而机构们的预期是多少?656到670亿之间。
说人话就是:超出预期上限十几亿。
这数字什么概念?华尔街那帮分析师天天盯着英伟达,模型算得比谁都细,能跑偏这么多,只能说明一个问题:需求比所有人想象的都要猛。
但有意思的是,财报出来之后,盘后股价涨了3%,然后呢?然后昨晚又跌回去了。
你看这事儿多离谱:营收超预期十几亿,股价没反应。换别的公司早起飞了,但英伟达不行,你必须每次都超预期,而且要超很多,市场才勉强点点头。
这种感觉就像什么呢?就像你每次考试都年级第一,结果家长觉得"这不是应该的吗"。哪天考了个98分,反而要被问"怎么回事,退步了?"
说白了,预期太高了,高到"达标"都成了最低标准。
「这货已经不是显卡公司了」
黄仁勋在财报会上说了一句话,听着有点绕,但细想挺吓人:
"数据中心就是现在的计算单元。"
翻译一下:英伟达不再把自己当芯片供应商了。它现在是"AI算力货币的中央银行"。
什么意思?
你想想,全球有多少家AI公司在烧钱训练模型?有多少家企业在用大模型做产品?他们都需要算力。而算力从哪来?从英伟达的卡上来。
英伟达通过控制算力总量的产出效率,实际上在影响全球数万家公司的生存成本。
它卖的不是显卡,是"数字石油"的入场券。毛利率75%,这哪是卖硬件的毛利,这是卖水的毛利。
「三代碾压,每代降本10倍」
英伟达现在玩的是"一年一代"的节奏。
第一代Hopper(H100/H200),开启了大模型预训练时代。
第二代Blackwell(GB200/GB300),专为混合专家模型设计,液冷成为主流。相比Hopper,推理成本降了约10倍。
第三代Vera Rubin(R100),今年核心。引入HBM4内存,强调"代理式AI"。相比Blackwell,推理成本再降10倍,能效比提升5倍。
什么概念?
从Hopper到Rubin,两代时间,推理成本降了100倍。
你可能会问:降本有什么用?降本不就意味着需求会减少吗?
恰恰相反。这叫"杰文斯悖论"——当资源利用效率越高,人们对该资源的需求反而会呈指数级增长。
推理成本越低,用得起AI的公司就越多;用得起AI的公司越多,对算力的需求就越大。
英伟达的逻辑是:只要推理成本够低,AI就能渗透进所有行业。即便人类失业,企业为了维持竞争力也会疯狂购买算力来替代昂贵的人力。
听着有点冷酷,但这就是现实。
「国产替代:20%良率,20%胜率」
说到这儿,你可能会问:那国产芯片呢?
说实话,有点心酸。
先说产能。国内某头部AI芯片公司计划2026年把加速器产量提高三倍,目标是50万片。其中30万片是最先进的旗舰系列。
听着还行?
但问题来了:良率只有20%左右。
意味着什么?每5颗芯片,有4颗是次品。
这不是成本问题,这是生存问题。
再说性能。国产旗舰的推理性能,大约是英伟达Rubin的1/40。
而且还没算上软件生态的差距。英伟达有CUDA护城河,国产芯片在软件迁移上还得花3-6个月,这时间差足够错过一代模型迭代了。
姚顺雨最近说了一句话,挺扎心的:
"中国AI在未来3-5年实现弯道超车的概率,不足20%。"
为什么这么悲观?
他把问题拆成了两个"结构性落后":
第一,算力用途的"贫富差距"。
英伟达那边的逻辑是:算力用来做"范式探索"。因为推理成本够低,他们敢于浪费80%的算力去尝试错误的路径。
国内的逻辑是:算力用来"保命生存"。因为卡贵、卡少,只能把算力精准用在已经证明成功的路径上。
这种"节俭"能追赶效率,但永远无法产生"范式级"的创新。
第二,"下半场"的降维打击。
AI已经进入下半场,重点是代理式AI和基础设施。当英伟达通过Rubin把推理成本降低100倍时,美国公司可以部署数亿个Agent;如果国内算力成本降不下来,就只能部署数千万个。
10倍的规模差距,就是那80%失败率的来源。
「写在最后」
说了这么多,是不是觉得国产芯片没戏了?
也不是。
20%的胜率,不是0%。而且这20%,是给那些能把"算法+算力基础设施"深度协同优化、把1颗国产芯片跑出1.5颗性能的企业的。
国产芯片的机会窗,不在"单卡跑分"追平Rubin,而在两个地方:
一是良率突破。把20%的良率提到60%以上,让国产算力不再昂贵。
二是垂直定义。不做通用的GPT-5对标,专门针对L3自动驾驶、具身智能这些场景做芯片级深度定制。
2026年是国产替代从"PPT阶段"走向"大规模量产"的生死年。
能不能活下来,就看这一年了。
觉得有用?点个关注,下期详细展开国产芯片与英伟达的差距。
关注「财不emo」,投资不emo。


