最近整个软件圈都在讨论一件事:过去十年所向披靡的SaaS模式,正在被AI彻底改写。
高盛近期发布了一份深度报告,通过访谈40多家上市公司与独角兽后得出结论:不是软件不行了,而是软件的赚钱方式、竞争壁垒、价值重心,全变了。
这不是小修小补,而是一次全面重构。
很多人有个误区:AI会替代人,软件席位会减少,行业空间会萎缩。高盛直接给出结论:完全相反,软件行业的总市场空间正在确定性扩张。
过去SaaS卖的是“功能、模块、账号”,企业预算卡死在IT部门;现在AI软件卖的是“一单位劳动”、“一单位生产力”、“一个完整结果”,预算直接切到人力、运营、业务线。
报告里有几个关键信号:
Sierra直接定义:AI时代的生产力原子是流程,不是人
Salesforce推出智能工作单元,按任务执行收费
Workday用弹性信用点对应“工作单元”,和底层大模型成本脱钩
高盛认为,这将带来一个革命性变化:软件毛利率可以和LLM成本解绑,行业依然能守住80%+的高毛利。哪怕算上推理开销,只要锚定业务价值,利润空间反而被打开。
换句话说:AI不是零和游戏,它创造了一个大得多的市场。最好的防守就是进攻, 行业里的老牌巨头拿着资本与算力优势,大胆去做就好。
前沿大模型一路刷新榜单,但代价是推理成本爆炸,企业根本扛不住。高盛调研发现一个明确趋势:全行业都在和前沿实验室“脱钩”。
核心路径只有三条:
用开源蒸馏模型:成本只有原模型训练的2%,效果足够支撑80%场景
走垂直专属小模型:不拼通用能力,只在细分领域做到极致
做模型路由与混合调度:把最合适的模型用在最合适的环节
高盛报告里的案例非常震撼:
Superhuman 97%的API调用走自有专属模型,只留3%给第三方大模型
Intercom混合用12个模型,自研重排模型后成本直接降80%
Writer推出自进化小模型,在企业环境里闭环训练,5轮迭代后性能对标前沿大模型
结论就是,企业不会绑定任何一家模型厂商,而是拥抱一整个独立软件生态。而这么做的好处很实在:调度更高效、推理成本更低、不会被某一家的token定价“卡脖子”。
现在行业最大的瓶颈,已经不是“模型够不够强”,而是能不能稳定、便宜、持续地用到算力。高盛引用一线厂商的原话:算力供需失衡,比外界感知的严重得多。
几个非常现实的数据:
工程团队的推理成本,已经逼近人力成本的10%
照这个趋势,未来几个季度,推理成本可能和人头费持平
新增GPU产能交付周期长达9–12个月,资本开支呈数量级上升
结果就是,多云部署不是可选项,是必选项。企业不得不同时在多家公有云、新云厂商跑推理,只为保住供给、平抑价格。现在不再是“谁有大模型”,而是谁能把模型在生产环境跑稳、跑便宜、跑可靠。
过去大家说SaaS牢不可破,靠两个东西:领域经验、数据壁垒。高盛这次直接戳破:这两个东西,没那么坚固。
先说领域经验,传统巨头被组织壁垒、权限割裂、旧架构拖累,根本看不到端到端流程。AI原生公司没有历史包袱,一上来就是跨系统、跨工具、跨流程,反而更懂真实业务。
再说数据壁垒,数据本来就是客户的,厂商只是“保管者”,不是“拥有者”。真正的壁垒,已经变成:谁能安全、稳定、重复地把数据变成跨系统的行动。
AI原生公司的打法很简单,不跟SaaS正面硬刚,专门钻传统软件之间的空白地带。几周上线、高POC转化率、按业务效果收费,直接绕开旧体系的护城河。
如此一来,软件价值正在迁移,从记录系统(数据库、仪表盘)走向行动系统(智能代理、端到端解决问题)。
高盛这份报告,其实只讲了一件事,AI不是来消灭软件的,是来重新分配软件价值的。最后,三类玩家会胜出:
能把定价从账号/功能,转到劳动/结果/工作单元的公司
能控制推理成本、掌握模型路由、自建专属小模型的公司
能跨系统打通流程、做端到端智能代理、贴近业务真实场景的公司
而被淘汰的,往往是这一类:
还在死守席位订阅、不肯改变收费模式
只在旧产品上贴一层AI皮,不做架构重构
被大模型厂商绑定,成本不可控,没有垂直壁垒
2026年之后,软件行业不再是“功能比拼”,而是“价值交付比拼”。谁能帮企业省人、提效、赚钱、降风险,谁就拥有新的护城河。


