前几天,我把斯坦福数字经济实验室刚发的那份《The Enterprise AI Playbook》翻完了。
说实话,看之前我以为又是一份"AI 改变世界"那种高举高打的宏观报告。
看完才发现,它讲的恰恰是反方向的事。
它没去预测 AI 的未来,而是回头扒了 41 家公司、51 个真正跑通了的企业 AI 项目,想搞清楚一件特别接地气的事——
那些把 AI 做成的人,到底做对了什么。那些一直没做成的人,又是栽在哪个坑里。
我看完后最大的感受是:
「这两年很多企业焦虑 AI,焦虑错方向了。」
大家都盯着选哪家模型、上不上 Agent、要不要换 GPU,却没意识到,决定胜负的根本不在这些地方。
━━━━━━━━━━━━━━━━━━━━
❶ 最让人意外的一个数据
77% 的难题,跟技术无关
━━━━━━━━━━━━━━━━━━━━
报告里有一个数字,我看到的时候愣了一下——
在那些成功落地的项目中,77% 最难啃的部分,跟模型、算法、技术架构都没关系。
难在哪?
难在流程要重新捋一遍,难在数据散在七八个系统里要先打通,难在跨部门开会扯不清谁牵头,难在老员工不愿意改工作习惯,难在法务和合规不松口。
这些事一件都不"高科技",但每一件都能把项目拖死。
更扎心的是另一个数字:61% 的成功项目,其实之前都失败过至少一次。
也就是说,你今天看到那些被吹成"标杆案例"的公司,背后大概率都偷偷交过一轮学费。
只是没人愿意把翻车的过程写进 PPT 里而已。
所以我现在看到很多企业一上来就讨论"该选 GPT 还是 Claude",心里就有点替他们捏把汗。
不是说选模型不重要,而是——
你连业务流程都没理顺,连数据在哪都说不清,选哪个模型其实差别真不大。
━━━━━━━━━━━━━━━━━━━━
❷ 同一个 AI 项目
为什么有人几周就跑通,有人折腾几年还在试点?
━━━━━━━━━━━━━━━━━━━━
报告里有一组对比挺刺眼。
同样是上 AI coding agent,有的科技公司几周就让工程师用上了;有的银行同一个东西,立项两年了,还在 PoC 阶段反复横跳。
问题出在哪?
不是技术,是人。
我把报告里反复出现的那几个"加速器"摘出来,其实就三件事:
第一,老板是不是真在推。
注意,不是"批了预算"叫推,是"每周开会盯进度、谁拦路就找谁谈、把 AI 写进公司 OKR"那种推。
报告里说了一句很狠的话——好的高管,不是 sponsor,是 unblocker。
第二,原来的家底有多薄。
如果公司本来就有数据中台、API 网关、内部知识库,AI 接上去就是几周的事。
如果数据躺在 200 张 Excel 里,跨系统取数还要走工单审批,那别说 AI,上个普通 BI 都得半年。
第三,用户疼不疼。
如果一线员工已经被重复劳动折磨得不行了,AI 一来他们抢着用。
如果只是"领导觉得该上一下",那东西做出来也是落灰。
所以一个挺残酷的结论是——
「AI 落地的速度,其实就是组织成熟度的体检报告。」
跑得快的,不是运气好,是底子好。跑不动的,也不冤,欠的债早晚都得还。
━━━━━━━━━━━━━━━━━━━━
❸ 关于"AI 出结果,人逐条审核"
这事可能从一开始就想错了
━━━━━━━━━━━━━━━━━━━━
很多公司上 AI 时,会本能地选一个"安全"的方案:
"AI 先做,人必须每条都看过再放行。"
听上去稳,对吧?
但报告里的数据有点反直觉——
这种"AI 出稿、人工逐条审"的模式,中位生产率只提升 30%。
而真正效率最高的,是另一种叫"升级式"的模式:
AI 自己处理 80% 以上的常规情况,只有遇到例外、异常、边界 case,才推给人来判断。
这种模式的中位生产率提升达到 71%。
差了一倍多。
为什么差距这么大?
我想了一下,其实道理很简单。
如果每条都还要人完整看一遍,那 AI 干的就只是"打了一版草稿"。人没省事,最多省一点打字时间。
只有当 AI 真正接管主流程、人退到"只处理意外"的位置,效率飞轮才转得起来。
当然,报告也没鼓吹"全自动万岁"。
金融审批、医疗诊断、法律意见、对外公开内容——这些场景里,人工把关不是落后,是必须。
所以问题从来不是"自动化越高越好",而是——
「你能不能根据业务风险,精准切出那条人机分工线。」
切对了,AI 是杠杆。切错了,AI 就是更花哨的草稿机。
━━━━━━━━━━━━━━━━━━━━
❹ 企业里反对 AI 最狠的
往往不是基层员工
━━━━━━━━━━━━━━━━━━━━
这一段我看的时候特别有共鸣。
很多人下意识觉得,AI 推不动,是因为基层员工怕被取代、消极抵抗。
但报告说,最大的阻力来源不是一线员工,是中后台部门——法务、HR、风控、合规。
这类"staff functions"在阻力来源中占到 35%,比终端使用者还高。
为什么?
因为不同岗位反对 AI 的逻辑,根本不是同一套语言。
CFO 想看的是 ROI 模型;法务想知道出事谁背锅;风控关心的是合规边界划在哪;一线员工担心的是饭碗;真正的用户在意的是结果靠不靠谱。
你拿一套"AI 多有前景"的话术去四处讲,每个群体都觉得你没回答他们的问题。
这就是为什么很多 AI 项目立项时一片叫好,落地时寸步难行。
不是大家都反对,是每个人反对的东西不一样,而推进的人压根没意识到。
报告里没明说,但我觉得这其实在提示一件事——
「企业 AI 推进,本质上是一场内部销售。」
而且是要面对完全不同 KPI、不同语言、不同恐惧的多套买家,做多套销售。
这件事的难度,是远超大多数项目经理预期的。
━━━━━━━━━━━━━━━━━━━━
❺ AI 会不会裁员?
数据里藏着一个被忽略的真相
━━━━━━━━━━━━━━━━━━━━
这个话题太敏感,但报告没回避。
它给了一个我之前没注意过的数据切片——
在样本里,AI 项目带来的人力影响中:45% 的案例确实导致了裁员;但另外 55% 表现为"避免新增招聘、人员转岗、人数保持不变"。
也就是说,"裁员"是单一最大结果,但并不是多数。
我看完之后最大的感触是——
AI 会不会让人失业,从来不是 AI 自己决定的。
是公司战略决定的。
同样是 50% 的效率提升,有的老板的第一反应是"那能裁多少人";有的老板的第一反应是"那我能不能用同样人数把业务做大一倍";还有的老板会想"这群人能不能转去做我们一直没人做的新业务"。
报告里有句话我特别认同:
「增长导向的公司更倾向于'加速',成本导向的公司更倾向于'削减'。」
所以下次再看到"AI 抢饭碗"的标题党,可以先反问一句——
是 AI 在抢饭碗,还是公司本来就只想削成本,AI 只是给了个借口?
这俩是完全不同的事。
━━━━━━━━━━━━━━━━━━━━
❻ 真正赚到钱的企业
已经不再纠结"省了多少"
━━━━━━━━━━━━━━━━━━━━
这是整份报告里最让我有启发的一段。
大多数企业上 AI,开口闭口都是"降本增效"。
但报告发现,真正高 ROI 的案例,关心的不是"省了多少钱",而是"赚到了以前赚不到的钱"。
它总结了三种典型的增长打法。
一种是个性化变现。
过去做营销,能做到"分人群"已经是精细化了。现在用 AI,可以做到"千人千面",甚至"一人一策"。转化率不是提升 5%、10%,是直接换了个量级。
一种是速度变成竞争力。
以前一个定制方案要做三周,客户等不及就跑了;现在两小时就能出一版,客户还没去对比,单子就签了。这不是效率提升,是把对手的反应时间压缩到了零。
还有一种特别有意思——把内部能力反向产品化。
很多公司一开始做 AI,是为了自己用,提效降本。做着做着发现:哎,这套东西外面也有人需要啊。然后这套内部工具就变成了对外的 SaaS,变成了新的收入线。
讲白了,企业 AI 的分水岭已经悄悄出现:
低阶玩家在算"AI 能让我少雇几个人";高阶玩家在算"AI 能让我吃下哪些以前吃不下的市场"。
这两种思维方式,三年后会拉开非常恐怖的差距。
━━━━━━━━━━━━━━━━━━━━
❼ 关于 Agent
报告的态度比我想象中冷静
━━━━━━━━━━━━━━━━━━━━
最近 Agent 这个词被炒得有点过了。
谁的 PPT 里不写两个 Agent,都不好意思说自己在做 AI。
但这份报告挺克制的。
它给的数据是——目前真正属于 agentic AI 的案例,只占 20%。
也就是说,雷声不小,但实打实落地的还不多。
不过有意思的是,这 20% 一旦做对场景,中位生产率提升能到 71%——和"升级式"协作模式持平。
报告里还总结了一下,什么样的任务适合给 Agent:
高频、重复、目标明确、错误代价可控。
反过来说,那些低频、需要复杂判断、错了无法挽回的活,Agent 现在还摸不到。
但报告里有一句话我反复读了几遍——
「Agent 不是一个新界面,而是一次人机分工关系的重写。」
我觉得这句话的分量比表面看起来重得多。
因为它意味着:
下一波拉开差距的,不是"谁买了 Agent 工具",而是"谁有能力把工作流、数据权限、决策边界重新设计成适合 Agent 工作的样子"。
前者是采购,后者是改造。
差着十万八千里。
━━━━━━━━━━━━━━━━━━━━
❽ 最反直觉的一个结论
模型,正在变成"商品"
━━━━━━━━━━━━━━━━━━━━
报告最后给了一个判断,我觉得对所有还在纠结模型选型的企业来说,是个清醒剂——
42% 的成功案例里,基础模型是可以互换的。
什么意思?
意思是把底下那个 GPT 换成 Claude,或者换成 Gemini、Qwen、DeepSeek,业务效果差别没你想象中那么大。
真正构成长期壁垒的,根本不在 foundation model 本身,而在:
你积累了多少专属数据;你设计了什么样的业务流程;你有没有能力做多模型路由和编排;你的组织能不能持续迭代和试错。
这就解释了一个我观察了很久的现象——
为什么同样一个大模型,在 A 公司只能做个聊天玩具,在 B 公司却能变成生产系统、利润机器、增长引擎?
因为模型只是发动机。
而决定一辆车能不能跑远、跑稳、跑得过对手的,从来都是整车系统。
━━━━━━━━━━━━━━━━━━━━
❾ 写在最后
如果只能记住一句话
━━━━━━━━━━━━━━━━━━━━
如果让我把这份报告浓缩成一句给企业管理者的建议,我会说——
「别把 AI 当成'采购一个更强的模型',要把它当成'重做一遍组织的效率系统'。」
真正值得问的问题,不是:
我该选哪家模型?要不要现在就上 Agent?全自动化是不是大势所趋?
而是:
我们最痛的流程瓶颈在哪?哪些环节可以让 AI 接管主流程?我们真正的数据资产在哪、能不能调通?谁会支持,谁会暗中反对?出问题时,谁来兜底?我们到底是想用 AI 削成本,还是用 AI 做增长?
把这几个问题想清楚的公司,模型选谁都能跑出来。没想清楚的公司,买了 GPT-7 也还是 PPT。
过去两年,企业最常问的是"AI 值不值得做"。
但读完这份报告我觉得,问题已经悄悄换了——
今天真正该问的,不是 AI 有没有价值,而是:
「你的组织,配得上承接 AI 的价值吗?」
模型会越来越便宜,工具会越来越多,能力会越来越普及。
但真正稀缺的,从来不是模型。
而是一个组织重构流程、打通数据、推动协同、容忍试错、持续迭代的能力。
未来五年,企业之间真正拉开的差距,多半不在于谁买到了更强的 AI,而在于——
谁更早完成了那场艰难、漫长、但绕不过去的组织升级。
━━━━━━━━━━━━━━━━━━━━
报告原文我放在评论区,感兴趣的可以去翻翻。
如果这篇内容让你想到了你公司的某个项目、某个会议、某个一直没推下去的事,欢迎在留言区聊聊,我会一条条看。
我们下篇见。


