过去一段时间,因为工作的需要,密集阅读各大咨询公司关于 AI 的研究报告。
麦肯锡、BCG、贝恩、埃森哲……
这些报告几乎覆盖了所有你能想到的角度:商业价值、组织影响、岗位变化、投资回报、技术趋势。在系统性地阅读和对照这些内容之后,我逐渐确认了几个判断。
一、先说共识:咨询公司对 AI 的判断,其实高度一致
如果把这些报告放在一起看,会发现一个很明显的现象:
在表达方式不同的背后,咨询公司对 AI 的核心判断,出奇地一致。
至少在三件事上,几乎没有分歧。
第一,AI 已经不是 IT 或创新部门的话题,而是 CEO 级议题。
它被普遍认为会影响企业的核心竞争力,而不是局部效率。
第二,AI 的价值不只是“更快”,而是“改变生产和决策方式”。
生成内容、预测趋势、模拟结果,本质上都是在改变人类如何参与判断。
第三,不做 AI 的风险,正在超过“做错 AI”的风险。
在多份报告中,观望本身被视为一种越来越高风险的策略。
如果只停留在这些结论上,很容易得出一个简单判断:
AI 是必选项,而且越早越好。
但问题也恰恰从这里开始。
二、当这些结论进入复杂组织,问题开始显现
在现实中,无论是快消公司,还是其他大型、跨部门协作的组织,我看到的图景往往是这样的:
- AI 项目已经立项
- 工具已经引入
- 报告已经汇报过
- 但真正进入核心决策、持续影响业务判断的案例,并不多
这并不是因为企业不重视,也不完全是因为技术不成熟。
而是因为,在复杂组织中,有几件关键问题,被系统性地低估了。
三、被低估的事实一:高估了技术成熟度,低估了组织摩擦
在咨询报告中,经常可以看到一种隐含前提:
只要模型能力足够强,价值就可以被释放。
但在真实组织里,这个等式很少成立。
原因并不复杂:
- 数据分散在不同系统和部门
- 流程高度依赖人为判断
- 决策权并不集中在“最懂数据”的位置
于是就会出现一种非常典型的场景:
AI 在技术上已经“算得不错”,
但在组织中,却“不能用、不敢用、用了没人为结果负责”。
在这种情况下,AI 的最大阻力,从来不是“能不能做”,而是三个更现实的问题:
- 谁来用?
- 怎么用?
- 谁来为结果承担责任?
这些问题在咨询报告中往往被弱化,但在复杂组织中,往往才是决定成败的关键。
四、被低估的事实二:AI 的第一性价值,不是增长,而是「决策压缩」
在多数咨询报告里,AI 的价值常常被直接指向:
- 增长
- 创新
- 新业务机会
这些方向当然重要,但在真实业务中,尤其是在节奏快、决策密集的组织里,
AI 在第一阶段最稳定、最可感的价值,并不是增长,而是“决策压缩”。
所谓决策压缩,指的是:
- 更早暴露错误假设
- 更快缩小争论范围
- 降低反复拉锯的沟通成本
在很多组织中,决策迟缓并不是因为信息不足,而是因为:
- 观点、讨论太多
- 没人能把讨论形成结论
- 最后导致动作太少,行动太慢
AI 的价值,往往首先体现在:
让某些争论,变得不再值得反复争论。
这一点,在真实组织里,往往比“多做一个预测模型”更重要。
五、被低估的事实三:复杂组织不是 AI 最容易成功的地方,但一定是最关键的考场
从技术角度看,复杂组织并不是 AI 最友好的环境:
- 变量多
- 噪音大
- 人为干预强
- 决策链条长
这意味着两件事:
- 一旦 AI 真正进入核心判断,价值会非常大
- 但失败的概率,也会显著高于流程更标准的场景
如果 AI 能在复杂组织中真正跑通,它几乎可以在任何地方跑通;
但反过来并不成立。
这也是为什么,很多在其他行业被反复引用的 AI 成功案例,一旦进入大型、多层级组织,就会明显变形。
六、这对身处复杂组织中的人意味着什么?
第一,不要急着“上 AI 项目”,先想清楚你想替代的是哪一步判断。
不是“我们也要有 AI”,而是:
哪一个决策,现在最耗时间、最容易陷入主观争论。
第二,比“会不会用 AI”更重要的,是你在决策链条中的位置。
AI 不会平均提升所有人,它会优先放大那些本就掌握判断权的位置。
第三,真正危险的,不是不懂 AI,而是不清楚自己在组织中的不可替代性。
当 AI 能参与越来越多判断时,人反而需要更清楚:
我在哪一步,仍然是关键变量。
七、这只是一个开始
前段时间,因为工作交付的节奏,公众号的更新被我放在了次要位置。
但思考,从没有中断。
2026 年,
我关注的不是 AI 有多厉害、更新有多快,
而是当 AI 成为基础能力之后,
它如何真实地改变复杂组织中的决策方式、组织结构与个人价值。
真正值得被反复研究的,是如何借助它,
重新理解商业世界正在发生的变化:
规则如何被改写,
底层逻辑如何迁移,
趋势又将把组织和个人推向哪里。
如果你同样身处一个需要不断做判断的环境中,正在思考商业、组织与个人价值在新工具与新环境下的变化。
欢迎关注。


