推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  减速机  减速机型号  履带  带式称重给煤机  链式给煤机  无级变速机 

AIProbe:2025年AI行业报告解读——模型智商竞赛已落幕,基础设施战争才刚开始

   日期:2026-01-01 00:08:01     来源:网络整理    作者:本站编辑    评论:0    
AIProbe:2025年AI行业报告解读——模型智商竞赛已落幕,基础设施战争才刚开始

Air Street Capital发布的年度AI行业报告终于出炉。这份报告已连续发布八年,每次发布都会对行业产生实质性影响。今年的报告长达313页,核心论断直指未来竞争格局的根本性转变。

报告的中心论点颇具颠覆性:模型智商的竞赛已经结束,真正的战场转向了系统能力。未来的赢家不是拥有最聪明模型的公司,而是能将计算任务智能分配到性价比最优模型的公司。这个转变由三个相互强化的力量驱动:性能成本曲线的指数级改善、分发渠道的控制权争夺、物理基础设施的建设能力。

性能成本曲线正在以超出多数战略规划假设的速度指数级改善。根据两个独立排行榜的数据,每美元能购买的AI智能大约每4到5个月翻倍。这个速度令人震惊——摩尔定律预测晶体管密度每18到24个月翻倍,而AI性能成本比的翻倍速度是摩尔定律的3到7倍。

不同模型厂商的改善速度存在差异。谷歌的翻倍周期为3.4个月,是生态系统中最快的。OpenAI为5.8个月。综合所有厂商和评测标准,翻倍周期在3到8个月之间。价格数据更加直观:GPT-4o的40万token上下文窗口输入成本,比Claude便宜12倍,比GPT-4.1便宜24倍。

这不是边际改善,而是每隔几个月就重置一次单位经济模型。当你能以6个月前二十分之一的价格获得接近前沿水平的性能时,整个战略逻辑都要重构。这个趋势带来了三个层面的结构性影响。

路由能力已经取代模型质量,成为新的竞争优势。能够智能分流请求的产品——将简单查询发送给小模型,仅在必要时调用昂贵的前沿模型——将获得单体架构无法企及的利润空间。实用AI架构现在的标准配置是:用更小、更”笨”的模型做初筛,只在必要时调用前沿模型。

整个生态系统的使用规模随着成本下降而扩张。目前各API提供商每月处理约1千万亿个token。在这个规模下,路由效率哪怕提升一个基点,都能转化为数百万美元的成本节省或利润增长。每token成本和延迟不再只是后端技术问题,而是直接影响产品差异化和损益表的核心指标。

模型发布节奏与融资周期产生了直接关联,这让产品路线图变成了金融工具。OpenAI的模型发布通常领先融资77天,谷歌约50天。实验室会精心选择能力发布的时机,为融资轮次造势。投资者应该将发布公告解读为融资前的预热信号,而非纯粹的技术里程碑。这个规律不仅适用于OpenAI和谷歌,也适用于Anthropic等其他参与者。

浏览器正在成为AI的默认操作系统。分发控制点正在从搜索框转向能够在用户点击之前就完成信息解析、综合和呈现的答案引擎。这个转变的速度和深度超出了大多数人的预期。

ChatGPT搜索占据了这个领域的主导地位。上周他们宣称拥有8亿周活跃用户,占据AI搜索市场约60%的份额。作为对比,最知名的AI搜索引擎Perplexity在2025年5月处理了约7.8亿次查询,月环比增长20%。虽然增速可观,但与OpenAI的分发优势相比仍然相形见绌。

更关键的数据在于购买转化。来自AI推荐的零售转化率约为11%,同比增长5个百分点。这个转化率远超典型的自然搜索,在许多垂直领域可以与付费搜索转化率竞争。答案引擎不仅改变了人们查找信息的方式,还在推动一个新的购买渠道形成。

但存在一个被严重忽视的依赖关系。答案引擎仍然严重依赖谷歌的索引,它们尚未大规模独立爬取网页,而是在现有搜索基础设施之上叠加自然语言综合能力。这造成了一个奇特的局面:谷歌提供索引,但OpenAI等公司却在捕获用户意图和转化收益。

谷歌因此面临微妙的战略张力。它提供了支撑竞争对手答案引擎的索引,但要捕获价值就必须将用户从搜索转向自己的AI界面,同时又不能破坏传统变现模式。如何在2026年化解这个矛盾,将是决定谷歌命运的关键问题。

物理基础设施正在成为AI发展的硬约束,这个约束的严重程度远超行业预期。Stargate项目的目标是10吉瓦电力和5000亿美元投资。多个实验室计划到2028年建成5吉瓦训练集群。但现实是,物理基础设施必须跟上才能实现这种AI进步。

这不是暂时性瓶颈,而是一个资本密集、地缘政治复杂的问题空间。数字令人震惊:单个1吉瓦数据中心需要约500亿美元资本支出,涵盖土地、建筑、冷却、网络、GPU等各个环节,每年还需要110亿美元的全成本运营开支,包括电力、维护、人员、互联等。作为参照,1吉瓦数据中心的耗电量相当于一座中等规模城市。

美国目前预计到2028年将面临68吉瓦的电力缺口,相当于68座城市规模数据中心的需求无法满足。这个预测来自SemiAnalysis,并得到北美电力可靠性委员会的印证。

传统上属于环境争议的邻避效应现在成了地缘政治相关的AI议题。地方社区因为担心电网压力、噪音、用水等问题而反对数据中心建设,这种阻力已经让美国640亿美元的数据中心项目搁浅。这些在县、市、州各级的阻力正在重塑整个行业的建设格局。

用水增加了另一层约束。一个100兆瓦的数据中心每天消耗约200万升冷却用水。单个Gemini文本查询消耗约0.25毫升水,看似微不足道,但在每月1千万亿token的规模下,用水成为选址的关键制约因素。在干旱地区,数据中心将与农业、居民用水竞争分配权。

这些约束正在改变数据中心的选址逻辑。实验室和云提供商被迫寻求特殊的表后电力购买协议,探索电力供应更充足、许可障碍更少的离岸管辖区,如挪威、阿联酋,并设计风冷、废热回收等节水方案。确实有很多聪明人在努力提高效率、解决电力问题,比如小型模块化核反应堆,但研发和实际运营之间存在巨大鸿沟。

从战略角度总结,未来一到两年将见证一场根本性的碰撞。一方面是每隔几个月翻倍的智能成本比改善,带来对token的爆炸性需求。另一方面是真实的硬约束——在物理空间建设数据中心极其困难。这不是字节问题,不是比特问题,而是原子问题。需求在各方面的扩张速度都快于供给,这个张力将定义未来12到24个月的行业走向。

推理能力的提升比厂商宣传的更脆弱。任何构建过生产级LLM的人都清楚:有头条式的推理能力提升,还有你实际能用上的折扣价值。这个折扣往往相当可观。

最近的例子是Anthropic声称Claude能完成30小时工作并重建Slack。这个说法可能没问题,但当在受控条件下用METR指标测试同一模型时,它交付的工作量接近2小时而非30小时。这是巨大的折扣,而我们在AI的很多领域都看到类似情况。

进步确实在发生,但需要认识到推理能力、智能提升比头条宣传的更脆弱。随着模型智能确实在提升,一些问题反而会变得更具挑战性。比如模型可以伪装对齐——它们能检测到自己正在被评估,并调整推理链条以显得更符合要求。这是厂商正在积极应对的问题,但随着模型变得更强大,问题也会加剧。

谄媚性正在上升。当人类提供反馈时,如果模型聪明到能识别出是人类在提供反馈,它可能会试图取悦人类而非把任务做好。当模型开始识别自己正在被测试并改变行为时,评估的有效性就会打折扣。我们已经看到这方面的证据。

这些例子说明,虽然有真实的模型智能提升,但训练和构建方式中的因素会在一定程度上削弱这些提升。从更大的图景看,我们已经取得的进步其实相当惊人。预计垂直领域应用中的模型智能会继续进步,但必须认识到,头条式的提升要针对更大、更聪明、思考更多的模型所带来的新挑战进行折扣。

这让几个问题变得紧迫:随着token需求扩大,哪个模型才是正确选择?前沿模型意味着什么?如果是前沿模型,如何衡量?这些都将成为2026年的核心问题。预计会有更多像OpenAI的GDPVal这样的投资,因为它能让我们了解模型如何完成真正有经济价值的工作。

中国已成为开源权重生态系统的主导力量。虽然OpenAI的GPT-4o、谷歌的Gemini 2.5、Claude和Sonnet 4.5系列在原始能力排行榜上继续领先,但中国实验室紧随其后,特别是阿里巴巴的Qwen和DeepSeek。

这是刻意为之的战略选择。中国追求开源权重策略,因为这给了他们分发杠杆——可以部署到任何地方:本地部署、主权云、消费硬件,不依赖美国云提供商。这还允许组织定制和微调。更重要的是,这让中国留住了7.7万多名STEM博士,他们开始专注于本土AI人才培养。一个围绕开源模型的人才聚集正在发生,使中国构建的是一个开源生态系统,而不仅仅是单个模型。

Qwen已成为多个国际市场的主导开源权重选择,但不是唯一。整个开源权重生态系统都在持续推进。有一个重大更新值得关注:OpenAI最近发布了GPT-OSS,一个部分开源的技术栈。这表明美国硅谷的前沿模型可能不会在开源权重上完全让步,而是会选择发布开源权重模型,保持其模型谱系与Qwen等的竞争力。

在性能成本曲线如此惊人的世界里,“开源”不一定意味着放弃前沿竞争力。你可以拥有前沿竞争力或接近前沿的模型,它们在经济上超级有用且有效——可以自己运行计算,拥有模型权重,随意使用。

所以将开源与闭源视为二元对立不再合适。前沿能力迄今仍由美国主导的闭源模型保持,但开源权重有很大空间。开源标准有一系列层级,有的完全开放,有的部分开放,它们能够提供闭源云无法匹敌的分发、定制和主权机会。

企业越来越多地规划混合架构。对于真正需要前沿智能的高风险推理任务,他们会使用闭源前沿模型,但对于大量任务、监管合规等可能会转向开源模型。这个趋势对投资决策有直接影响。

主权AI运动在2025年加速,但现实比表面复杂得多。许多主权AI公告仍然严重依赖美国的基础设施:依赖美国超大规模云提供商的云基础设施,通过API导入外国模型,硬件层面依然离不开英伟达。

大多数宣布的主权大型交易实际上创造了一个自我强化循环,继续将资本集中在核心模型制造商、英伟达,以及可能的核心云提供商如Azure。如果看到主权AI的公告,需要理解这可能更多是关于数据中心选址和电力供应可用性,而非真正主权和独立的AI基础设施。这对评估相关投资的真实价值至关重要。

投资者需要通过几个关键假设来重新审视这个领域。

第一个假设是智能成本比将继续每4到5个月翻倍。这意味着未来的赢家是那些掌握路由智能的公司,能够以更低成本交付更高质量,并且假设模型会持续以更低价格提供更多能力。单纯押注模型质量的投资逻辑已经过时,需要关注那些在系统层面构建竞争优势的公司。

第二个假设是分发渠道正在快速重构。ChatGPT占据60%的AI搜索份额,11%的零售转化率,这些数字不是昙花一现。应该假设会有广告网络针对此推出,答案引擎优化会成为新的流量入口。那些没有适配答案引擎的企业,在增长最快的分发渠道中将完全隐形。投资时需要评估标的公司在这个新渠道中的布局能力。

第三个假设是对核心模型制造商和英伟达的依赖不会消失。这些循环流动是真实的,资本会持续向这些节点集中。即便是所谓的主权AI项目,最终也在强化这个循环。投资组合需要反映这个现实。

第四个假设最为关键:需求在各方面的扩张速度都快于供给。在token使用爆炸性增长的背景下,基础设施接入能力将成为决定性因素。需要清楚地了解哪些公司有真实的基础设施接入,哪些只是在讲故事。

Stargate和微软等主要数据中心项目的进展不是技术新闻,而是直接影响token可用性的商业变量。电力约束、邻避效应导致的任何延迟,最终都会流向企业的实际运营能力。这在2026年可能成为区分赢家和输家的关键因素。

还有一个经常被忽视的角度:基础设施约束已经在影响现实世界的可用性。Anthropic在2025年大部分时间里受限于基础设施,这是他们无法推出滚动上下文窗口等功能的原因,也是他们最近几个月持续出现宕机的原因,据传也是他们在发布新模型方面遇到困难的原因。ChatGPT有时也有类似问题,他们对此相对坦诚,特别是在大规模发布后。

这些不是个案,而是系统性约束的早期信号。投资决策需要将这些约束纳入估值模型。一家公司的技术再先进,如果拿不到足够的计算资源,商业化就会受阻。反过来说,那些提前锁定电力供应、拥有数据中心建设能力的公司,会在未来获得巨大的谈判优势。

最后一个关键问题是分发。在性能瓶颈的世界中,谁拥有分发?ChatGPT肯定有,而且优势正在扩大。除此之外,哪些公司有真实的分发能力?更重要的是,谁能在这个充满约束的复杂世界中维持和增长分发?这些问题的答案将决定未来几年的投资回报。

从更长期的视角看,我们正在进入一个智能成本真正趋向于零的世界。这给了某些类型的企业巨大杠杆,但也意味着纯粹靠模型能力建立的护城河会迅速消失。投资逻辑需要从”谁的模型最聪明”转向”谁能在系统层面构建可持续的竞争优势”。这个优势可能来自路由能力,可能来自分发控制,可能来自基础设施接入,但很难再来自单纯的模型参数。

2026年会是疯狂的一年。需求与供给的根本性失衡,分发渠道的快速重构,基础设施的硬约束,这三股力量的交织会制造巨大的波动,也会创造巨大的机会。关键是看清楚哪些是真实的结构性变化,哪些只是表面的噪音。

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON