推广 热搜: 采购方式  甲带  滤芯  气动隔膜泵  带式称重给煤机  减速机型号  无级变速机  链式给煤机  减速机  履带 

行业观察:Openclaw 繁荣背后的真本事与新外壳

   日期:2026-03-24 09:48:10     来源:网络整理    作者:本站编辑    评论:0    
行业观察:Openclaw 繁荣背后的真本事与新外壳

Openclaw(AI Agent) 背后的skills,这些被包装成“智能体”“自动化系统”的脚手架,到底有多少是真本事,有多少只是把老东西换了个新壳?

下面这篇,就是我站在一个连轴开发 AI 产品的从业者视角,对这个 Agent skill 生态的一些拆解和感受。我会尽量讲清楚:这些 skill 是怎么实现的、它们对普通用户到底有多不友好、里面有哪些结构性问题,以及这些问题对做产品的人意味着什么。


先把结论摆在前面:不管是国内还是国外,现在看上去百花齐放的 Agent skills 市场里,大部分“创新”都没有发生在底层能力上,而是集中在包装层、分发层和故事层。现在的情形,一句话总结,就是 “底层创新的缺失与包装层的狂欢

现状拆解:当前 Agent Skill 的三大分类

这段时间我大概拆了几十个国外 skill、二十来个国内顶流 skills,大致可以分成三类:

  • 第一类:“提示词型 skill” 它的核心是把一套方法论、分析步骤、写作模板,用很长的一份 SKILL.md 写清楚。常见的例子有 data-analysis、market-research、excel-xlsx、word-docx 之类。宣传上说“会做数据分析”“会做市场研究”,但真正干活的,还是底层大模型加上一些传统工具。这个 skill 更像是一张“流程说明书”或者“操作卡片”,而不是一个真正有独立能力的模块。
  • 第二类:“薄封装 skill” 它做的事情,就是给现成的 API、命令行工具、SaaS 服务,再加一层自然语言入口。比如 baidu-search 实际上就是调百度千帆的搜索 API;nano-banana-pro 用的是 Gemini 3 Pro Image 做图;notion、slack、imap-smtp-email 则是在官方 API 或 CLI 外面再包一层。它的自动化逻辑,拆开就是:把自然语言里的要素映射成参数 → 发一个 HTTP 请求或调用命令行 → 把返回的 JSON 或输出再格式化一下。
  • 第三类:“产品级系统” 它们有一些真正的系统设计:状态管理、缓存、监控、路由策略之类。比如 web-search-plus 会根据用户的 query 特征,在 Serper、Tavily、Exa、Perplexity 等多个搜索服务之间做路由和选择;command-center 会负责本地可观测性、日志收集、任务重启;agent-browser 会用可访问性树来做相对稳定的 DOM 引用,尽量不被前端结构的小改动弄崩;ontology 会在本地维护一个 JSONL 格式的“知识图”或状态库。但很明显,这种有工程厚度的 skill,在整个生态里只是少数。

如果你平时习惯刷官网宣传页,常见的一套话术是:AI Agent、全自动化、深度研究、自我进化、知识图谱记忆、无代码工作流、一键集成 100+ API。拆开这些具体实现后,会发现有几个几乎到处都存在的共性问题。


问题一:“自动化”在工程实现上的单薄

第一个共性问题,是很多人嘴里的“自动化”,在工程上其实很单薄。

在不少 skill 的实现里,“自动化”换成工程语言,就是这一串动作:识别用户意图 → 选一个工具 → 把自然语言拆成参数 → 调一个 API 或 CLI → 把结果整理成用户能看懂的格式。有的会多加一点:把错误记录进 markdown 日志,就说是 self-improving;把同一个请求丢给几个搜索 API,就叫 deep research;把环境变量里配置的几种模型轮流用一下,就叫 free ride 或模型路由。

这些东西当然有用,能省不少体力活。但如果我们心里想的是“自治智能体”,那距离还非常远。更准确的说法,其实是 workflow wrapper——它包了一个工作流,而不是一个能自己做决策、自己改进的“主体”。很多 skill 卖的并不是一个“会做事的智能体”,而是一块“把一堆已有工具接在一起的插线板”。


问题二:被过度乐观估计的“用户友好度”

第二个共性问题,是“对非技术用户友好”这件事,被说得太乐观了。

几乎所有看上去很酷的 skill,背后都有一串被藏起来的前置条件。你如果真想跑起来,往往要经历这样一串步骤:

  • 先去各种平台注册账号,申请一堆 API key;
  • 再在某个配置文件或环境变量里,把这些密钥一条条填进去;
  • 本地还要装 Node 或 Python,装 CLI 工具,装对应依赖;
  • 如果用 Gmail,还要开两步验证、再生成一个 app password;
  • 接 Slack、Notion 之类,还要自己在它们的控制台里创建应用、配置 OAuth、选权限 scope;
  • 用 summarize 这种聚合摘要工具,常常要同时管理 OpenAI、Anthropic、xAI、Google、Firecrawl、Apify 等好几家的凭证,错一个就会报错。

文案写的是“只要用自然语言说出需求,一切自动完成”。真实体验却往往是:自然语言入口只让最后那 10% 的交互简单了,前面 90% 的环境搭建、账户配置、认证管理、错误排查一样都没少。对非技术用户来说,这就像是:门口那几级台阶确实被削平了,但台阶后面其实还有一整段上坡山路,只是宣传里没提。


问题三:爬虫与搜索能力的“神话”幻象

第三个共性问题,是“爬虫/搜索”这几个词,被严重神话了。

我拆过的这些 skill 里,只要一提“抓网页”“深度搜索”“自动研究互联网”,大多数实际用的都是下面三种思路之一:

  1. 直接调用现有搜索 API,比如 baidu-search、ftshare-news-data。连自己的爬虫系统都不搭;
  2. 用浏览器自动化工具,比如 agent-browser、playwright:打开页面、等待加载、模拟点击,然后把 DOM 或可访问性树抓下来交给大模型;
  3. 做一个 meta-search,比如 web-search-plus,把用户 query 分发给 Serper、Tavily、Exa 等多个搜索服务,在本地加一点缓存和路由策略,再把结果合并一下。

如果站在传统“搜索引擎”或“爬虫系统”的角度来看,这些都只是外围部分。真正意义上的爬虫系统,需要有任务调度、增量抓取策略、URL 去重规则、反爬处理、结构化解析、失败重试、长期数据入库等等。而在现在的很多 skill 里,这一整块几乎是空白的。

多数情况下,“会操作网页”这句话,在代码层面就是:起一个无头浏览器 → 访问一个结构比较稳定的页面 → 多点几下按钮或滚动 → 把当前 DOM 抓下来给模型总结。离我们日常理解的“能对互联网做系统性研究”,还隔着一整套基础设施。


问题四:“免费”标签掩盖下的真实运行成本

第四个共性问题,是“免费”的说法,遮住了真实成本。

一些工具会很大方地写:web-search-plus 会告诉你 Serper 每月 2500 次免费、Tavily 每月 1000 次免费;moltguard 会写安全检测每天有 500 次免费额度;很多聚合搜索或模型路由工具,会强调“只用一个 key 就能接入 N 个服务”。

如果你只拿来玩玩,偶尔跑几次任务,这些免费额度看上去很充裕。但只要你想拿它做一点正经事(如长期行业研究、股票池监控、自动化流水线),你就会很快撞上限额。这时候,真正的复杂问题才会浮出水面:是花钱提额,还是在多个服务间拆分任务?是自搭搜索系统,还是按功能分流?这些决策,几乎都不会出现在 landing page 上,但却是落地关键。


问题五:安全与隐私处理的矛盾现状

第五个共性问题,是安全和隐私,被处理得太乐观。

有一些专门做安全的 skill,比如 skill-vettermoltguard,本身是很认真的。它们会整理出各种“危险信号”:比如警惕未知 URL 的下载命令、保护敏感路径、拒绝 base64 解码后立即执行的命令。这些清单侧面说明:生态里确实有大量用户看不懂的脚本和二进制被到处调用。

但与之并存的是大量不谨慎的做法:discord skill 漏写依赖却允许上传文件;某些工具自动改写本地配置;要求将所有 API key 存放在明文文件里。这种状态很矛盾:一方面大家都知道有风险,另一方面为了功能跑通,又不得不开放更多权限。


实践反思一:Agent 生态目前更多是“接线员”

站在我自己「1 年 100 个 AI 产品挑战」的实践上,再回头看这整片生态,我的感受有两个特别强烈。

第一个:现在的 agent skill 生态,卖得最多的,其实是“接线能力”,而不是真正的“智能能力”。

很多作者在复杂的工具世界上搭中间件,接上各种 API 后宣称拥有“100+ 能力”。但这些能力大多是原平台的本职工作,skill 只是个集中配线板。真正难的部分——如定义稳健的业务流程、出错自动补救、设计易用的界面、控制成本——很多 skill 几乎没有碰。


实践反思二:真正的价值往往在于“枯燥”的工程细节

第二个感受:那些真正有价值、真正有技术含量的部分,反而一点都不像“AI 神话”。

比如 agent-browser 用传统工程思路做页面定位;command-center 负责本地观测与任务重启;ontology 做透明的状态存储;n8n 认真讨论幂等性和人工审批。这些东西很实在、很“无聊”,不好做惊艳的 demo,但它们才是 AI 系统里最值得长期投资的基础设施。

哪里营销声音越大,往往哪里工程厚度就越薄。那些最容易涨粉的“全自动”功能,大多只是旧工具的再一次封装。


总结:从“AI 神话”回归到解决具体问题

写到这里,我也得承认:作为一个开发者,我也在大量使用这个生态里的“积木”来降低实验门槛。

但如果我们把这些直接给普通人当产品,问题就太多了。“无代码”变成了“配置复杂化”,“自治”变成了“API 调度”。接下来几年,真正有价值的 AI 产品,不会是再造一层“更好看的 skill 市场”,而是老老实实去啃那些不性感的问题:研究透具体工作流、明确自动化边界、做实安全管理、用尽量少的“神话”包装产品。

现在整片 Agent skill 生态更像一个巨大的实验场。它让我看到两条路:一条是做“接线板”堆功能,另一条是向下挖做实能力。如果你也在做 AI 产品,希望这些吐槽能让你在面对“智能体叙事”时,多一点免疫力和判断力。

 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  皖ICP备20008326号-18
Powered By DESTOON