如果正经常使用 OpenClaw,你就会发现其中的利弊:大模型消耗的token账单还是需要考虑的成本问题。
-
如果你所有东西都按原价购买 Claude 的产品,成本就会上升。
-
如果你换用更便宜的型号 → 你的代理在重要任务上的表现会变差。
但这只有在假设每个提示都需要相同模型的情况下才算是一种权衡。如果不是这样呢?
解决方案:智能模型路由
我们这里使用的是 OpenClaw,但这适用于任何将每个提示发送到单个模型的代理工作流程。
LLM路由是您的应用程序和服务提供商之间的一个层。
它会读取每个传入的提示信息,对任务进行分类,并将其路由到最适合的模型。简单的查询会交给速度快、成本低的模型处理。
复杂的任务交给能力更强、消耗更高的大模型。而这一切都是自动决策的。
开源解决方案
Plano是一个开源的 AI 原生代理,它在一个地方处理路由、编排、防护和可观测性。
Plano GitHub 仓库
它最强大的功能之一是优先级对齐的 LLM 路由,这非常适合我们的使用场景(分场景使用不同的大模型能力)。
Plano 不按基准测试分数进行路由,而是根据开发者对每个任务的实际偏好进行路由。您可以直接在配置中设置这些偏好。
例如:
-
对话 + 代理任务 → Kimi K2.5
-
代码 + 测试 + 推理 → Claude Opus 4.6
路由器会根据您的偏好匹配每个提示,并自动分发,而无需对 OpenClaw 进行任何更改。
Plano是如何做到这一点的?
Plano 基于Arch -Router-1.5B构建,该模型基于人类偏好数据而非基准测试分数进行训练。它已在 HuggingFace 大规模部署。
HuggingFace上的模型:
相反,它会根据开发者对每种任务类型的实际偏好进行路由。您可以在纯配置文件中定义路由偏好。
Plano 会读取每个提示,将其与偏好设置匹配,然后进行路由。OpenClaw 无需任何更改。
使用 OpenClaw 和 Plano 进行智能模型路由
将 API 密钥设置为环境变量(这些密钥用于 LLM):
创建 Plano 配置文件
Plano 基于配置文件运行,您可以在其中定义 LLM 路由。
创建配置文件以开始使用 Plano。
您需要在此处设置的关键内容是 LLM 提供商和您的路由首选项(只需用简单的英文描述即可)。
看看这个:
启动Plano
现在配置文件已创建,环境变量也已在.env文件中定义,您可以使用以下命令启动 Plano:
启动 OpenClaw
这会将网关安装为后台服务。
您还可以连接即时通讯渠道,例如 WhatsApp 或 Telegram。运行openclaw doctor以验证一切是否正常运行。
看看这个:
将给OpenClaw的请求指向Plano
在 OpenClaw 注册向导中,当提示选择 LLM 提供商时:
-
选择“自定义 OpenAI 兼容”作为提供商
-
将基本 URL 设置为
http://127.0.0.1:12000/v1 -
您可以输入任意 API 密钥值(例如,无),Plano 会处理与实际提供商的身份验证。
-
将上下文窗口大小设置为至少 128,000 个词元
这会将 Plano 注册为 OpenClaw 的 LLM 后端。所有请求都会通过 12000 端口经由 Plano 路由,并根据提示内容定向到 Kimi K2.5 或 Claude。
请看这里:
以下是路由内容及其路由路径:
实际观察路由运行情况
自从我们开始使用 Plano 以来--with-tracing,您可以准确地检查每个提示是如何分类的以及它被路由到哪个模型。
以下是 Plano 处理路由决策的跟踪记录。当我们想要生成代码时,它使用了 Claude 而不是 Kimi。
请看这里:
开发人员经常花费大量时间来选择“正确”的模型。真正的问题不在于选择哪个模型,而在于哪个模型适合哪个任务?
智能路线规划功能会自动解决这个问题。您只需设置一次偏好,每次出现路线提示时,系统都会自动匹配合适的车型,无需您操心。
最终结果是,你可以在不牺牲质量的前提下节省很多代币费用。如果您正在解决智能 LLM 路由问题,Plano 是 100% 开源的(Apache 2.0),可以尝试下。


