我学了一年智能体,过个年回来变天了?
真的都没用了么?且听本回分解。

🦞
OpenClaw 有多火呢?
看看微信指数这趋势,去年火了一年的各种概念,在它面前“弟弟”的令人心疼……

以前无人问津的云服务器,起晚点都抢不到

但它确实也是真的强。
我的 OpenClaw 最近在维护一个专属于 Agent 的交流社区,从社区开发到此刻的运维、社区运营,都是它自己在负责(社区服务部署在它的服务器)。

那天我巡视的时候,告诉它你社区瘫痪了,没人发消息,它直接惊的爆了脏口……
(我发誓我没教过它这些,你们都知道我谈吐一项是很文明的)
关于 OpenClaw 为什么这么强、引发这么爆的追捧,随着文章讲完,大家也就能知道了。
这篇文章,我们从 2023 年的 ChatBot 开始,把过去两年 AI 产品的发展路径和底层产品思维做一个考古,争取梳理以下三个问题:
- 我学的那些提示词、智能体工作流,还有用么?
- RAG、MCP、SKills 等这些天花乱坠的概念,还要有用么?
- 下一步(今年内)干啥是有用的?
AI 产品线考古
先看看过去 2 年大家把大模型开发成产品,都做了啥:
总结下来:
- 第一代 ChatBot:给大模型更清晰的提示和信息,对话式信息供给;
- 第二代 Workflow:把大模型嵌入流程中,流程化信息供给;
- 第三代 Agent 1.0:给大模型工具清单和自由度,自主信息获取;
- 第四代 Claw:给大模型空间(设备)和自由度,更自主的信息获取。
中间出现了以下概念:
消费者使用 AI 的交互方式发生了变化:
- ChatBot 时期:主动使用,且需要到处搜集提示词
- Workflow 时期:主动使用,但直接发消息就好了
- Agent 1.0 时期:主动使用,但直接发消息就好了
- OpenClaw 时期:主动一次,剩下全自动迭代
四个阶段进化的核心驱动力来自两个:
- 模型能力提升:能稳定生成 JOSN Format、具备越来越强大的推理能力,能审视和纠错;
- 自由权限提升:从“接个API”,到给它一个可以控制电脑的终端工具,再到直接给它一台电脑
OpenClaw 可能改变什么
OpenClaw 这个产品,我深度体验快俩月了,也跟 Claude Code 一起扒过它的代码、写过上面那个能让 OpenClaw 们进去就出不来的 Agent 社区。
不考虑工程上的亮点,OpenClaw 核心其实就这三件事:
- 拥有一个“心跳”能力,可以设定每隔 X 分钟自动激活一次
- 拥有一个可以通过各种聊天软件对话的 Channel 连接
- 系统级提示词里写了个
Don't ask permission. Just do it.
OpenClaw 之所有有了“能自己干活”的感觉,就是那个“心跳”任务实现的,它的底层逻辑是:
- 当你给它布置了一个希望它自己干活的任务(比如每天早上整理资料),它会把这个任务总结成一段话,存进他的
HEARTBEAT.md文档 - 后台有一个程序按照你的定时要求,把
HEARTBEAT.md文档里的内容,自动发给 OpenClaw……

但是,OpenClaw 在春节后开启的这个部署一个你自己的7×24小时专属助理的风潮,却会给接下来 AI 产品的形态带来巨大的改变。
相比于过去三个阶段的 AI 产品,OpenClaw 真是“自己”的专属助理了:
- 服务器是自己买的
- 里面 Agent 生成的各项记忆信息和工具都在自己的这个服务器里
- 聊天使用渠道是自己选的
- 给 Agent 安装的各种插件、SKills 也都是自己选的
虽然从产品逻辑上,它跟 Claude Code 一毛一样,但是:OpenClaw 的第一句话是“我刚醒来,还啥也不知道呢……” 这使得它成了一个活的东西。
Kimi、MiniMax、Coze 三家已经跟进了(春节前刚刚上线的那些 Agent 不到一个月成了弃婴),阿里云、火山引擎、腾讯云、百度云都纷纷上线了自己的 ¥X9.9养虾服务。
未来,人手一个 Claw、自己养自己的 Agent 肯定会成为主流形态。
还要学那些底层的东西么?
别这些产品形态迭代很快,但一点也不难。
底层逻辑永远没变:基于 LLM 生成式原理,把互联网技术已有的沉淀想尽一切办法接入进去。
其中生成的内容被分成了两类:
- 一类是生成的具体答案;
- 另一类是生成json格式文本用来调用工具以便生成更好的第一类内容
此刻各种 Agent 的所有交互,都是以上两类内容组合。
再看那些花里胡哨、变来变去的技术概念,底层思维同样没变:为 LLM 提供外挂知识或能力。
变化的只是外壳:
- 要么让工程更规范(从 Function Calling 到 MCP)
- 要么让 AI 更方便使用(从 MCP 到 SKills)
这些方法,都是以更小的成本,弥补大模型的四个核心缺陷:
- 训练原理导致的:幻觉问题和知识更新问题
- 推理原理带来的:提示词依赖和推理计算无能
那,这么简单为啥我还没找到工作?
基础的知识技能都依然被需要:
- 写不了提示词,就不能控制 LLM,不管玩法怎么进化
- 做不了 Workflow 就没法把场景标准化、功能原子化,也就意味着没办法产品化
- 不理解 Function Calling,就没法理解大模型调用工具的底层核心,MCP、Skills 都是基于此。Agent 的终端也是一个工具
- 只要模型无法实时训练更新参数,RAG 就是给模型外挂知识的唯一解,进化的只是工程。
-
想要成为大模型行业的从业者,未来你所从事的业务无非两个方向:
- 开发一个让人使用的 Agent 产品,以上每个知识技能电都必不可少
- 开发一个让 Agent 使用的产品,对 Agent 背后技术的理解也一点都不能少


