【OpenClaw 入门指南:那些差点让我放弃的坑】
花了两周时间看着 AI 助手原地打转,同样的回答循环八次,API 余额像流水一样烧光。这大概是大多数 OpenClaw 新手的日常。
但这事儿其实没那么绝望。
+ 关于模型选择的误区
最大的问题在这:很多人用最贵的模型跑所有任务。心跳检查、定时任务、日常查询,全部甩给 Opus 或 Sonnet。
这就像雇一个外科主任去扫地。
合理做法是搭建分层架构:用便宜模型(Haiku、Gemini Flash)处理常规任务,把顶级模型留给真正需要深度推理的场景。这个调整能把单次请求成本从两万 token 砍到一千五。
+ AI 助手需要规则
开箱即用的 OpenClaw 其实挺蠢的。它会循环、重复、失忆,做出各种迷惑决策。你需要给它设定明确边界。
在 workspace/skills/ 文件夹里创建 SKILL.md 文件,写清楚行为规范:反循环规则、上下文压缩策略、提问前的任务检查机制。那些真正好用的助手,背后都有大量定制化指令集。
有个经常被忽视的事实:你必须自己做研究,不能指望 AI 全知全能。你是指挥家,不是观众。
+ 后台工作的真相
“让它通宵干活”这种想法行不通。你关掉聊天窗口,会话就结束了。真正的后台任务需要用 cron job 配合独立会话。这会启动独立的 agent 实例,按计划运行并把结果发给你。
一次性延迟任务需要队列系统(Notion、SQLite、文本文件都行),再配合定时检查。
+ 从一件事开始
不要上来就想把邮件、日历、Telegram、网页抓取、定时任务全部搞定。每个集成都是一个新的故障点。先让一个完整流程跑通——比如一个晨报定时任务——然后再叠加功能。遇到问题就跑 `openclaw doctor --fix`。
+ 保存有效配置
上下文压缩会让助手失忆。用状态文件,填好 workspace 文档(USER.md、AGENTS.md、HEARTBEAT.md),把重要决策存在持久化的地方。助手需要重新学习的东西越少,表现越好。
+ 模型质量决定一切
大部分挫败感来自工具调用不可靠的模型。聊天质量不等于 agent 质量。Claude Sonnet/Opus、GPT-5.2、Kimi K2 这些能很好地处理工具调用。特别避开 DeepSeek Reasoner——推理能力强,但工具调用格式经常出错。GPT-5.1 Mini 虽然便宜,但社区普遍反馈“agent 工作几乎没用”。
+ 你不是做得差
OpenClaw 不是成品。那些晒“一夜搞定完整应用”的人,背后可能调了好几周。演示视频和实际使用之间有条沟。这条沟在快速缩小,但现在还在。
一个开发者用 OpenClaw 搭建了投资分析管道:三个 agent(导师、分析师、交易员)构成议会架构,用门槛筛选(Gate)设计分层处理投资标的——Flash 做初筛,Haiku 算数据,Sonnet 深度分析,最后 Opus 出报告。一百家公司进来,最多三家能走到 Opus 环节。成本控制和分析深度同时兼顾,这才是真正理解了工具的人。
还有人提到本地模型要配本地嵌入模型(embedding model),否则每次请求都会把整个工作区塞进去。这种细节藏在文档里,但新手很少注意到。
这个领域变化快。你现在选的模型,两个月后可能就不是最优解。这也是为什么分层路由比押注单一模型更稳妥。
建 AI 助手就像培养新员工,只不过这个员工可能会忘记昨天的对话,而且每次失败都烧钱。但坚持打磨的人,已经开始看到回报了。
reddit.com/r/openclaw/comments/1r71you/things_i_wish_someone_told_me_before_i_almost
