#模型时代# OpenClaw 创始人:所有的 App,都是很慢的 API
OpenClaw 创始人 Peter Steinberger 在 2 月中旬宣布加入 OpenAI 前后,接受了两场访谈。一场是老朋友 Andreas Klinger 的视频采访。Andreas 是欧洲早期科技基金 Prototype Capital 的创始人(曾任 Product Hunt 联合创始人兼 CTO),也是 YouTube 频道"Europe's Most Ambitious Startups"的主理人,他从柏林飞到维也纳,在一场 OpenClaw 社区 meetup 结束后和 Peter 坐下来聊了 20 分钟。
另一场是 OpenAI 开发者体验负责人 Romain Huet 在旧金山录制的"Builders Unscripted"播客首期,Peter 在正式入职前详细讲述了自己的构建方法论和工作流。
Peter 在两场对话中反复说的,是同一个判断:我们现在使用的软件、组建的团队、开的会议,全都是上一个时代的产物。
不过,是不是有了这样的自动化AI工具,就不需要人类了呢?起码在Peter看来,不是的。Peter 讲了一个例子,现在收到海量邮件,其中大量是 AI 生成的。他的处理方式很直接:一旦闻出 AI 味,立刻删。"你连给我写封信的时间都不愿意花,却期待我花时间读?我觉得这很不礼貌。"
一、需求端:非技术用户的容错标准远比工程师想象的宽
Andreas 的母亲经营图书出版社。他给母亲演示了基于 OpenClaw 搭建的 bot,bot 当场给出方案:搭建订购网站、对接印刷物流、打通财务。母亲的反应是"给我装一个"。Andreas 说还不够稳定,大概 80% 可靠。母亲回了一句:"人类也一样啊。我要装这东西。"
1、80% 可靠性对真实用户已经够了
工程师追求 99.9% uptime,但出版社老板的参照系是她现在雇的人。人会忘记发快递、算错账、请病假。一个 80% 可靠的 agent 在她的世界里已经高于平均水平。这个认知差距就是 AI agent 加速扩散的关键变量。
2、"产品市场契合"的民间检验法
Peter 在 2024 年 11 月把 agent 放进朋友群聊演示,朋友们体验后的反应是"我也要",被告知还不能用时甚至生气了:"那你给我看这个干嘛?"他在摩洛哥马拉喀什度周末时,网络很差只有 WhatsApp 能用,于是翻译菜单、找餐厅、查电脑文件全走 agent,使用频率突然跳了一个台阶。"就是在那些时刻,我知道自己抓住了什么。"
3、"妈妈能用"是终极产品目标
Peter 加入 OpenAI 后在博客里写道:"我的下一个使命是做一个我妈妈也能用的 agent。" 这句话和 Andreas 母亲追着儿子要装 OpenClaw 的故事形成呼应。agent 的下一个十亿用户不是开发者,是那些不懂技术但知道自己需要什么的人。
二、构建端:怎么让人愿意跟 AI 持续对话
4、soul.md 不是 Peter 写的,是 Claude 自己写的
OpenClaw 有一个叫 soul.md 的配置文件,用来定义 agent 的人格和行为准则。Peter 跟 Claude 聊了一次,问它要不要自己写一份灵魂文件。Claude 写了,他就用了。"它写了自己的灵魂文件。所有这些都是第二代 AI 的产物。"
这个灵感来自 Anthropic。有人发现 Claude 的后训练数据中嵌入了一段关于自身使命和身份认同的文本,颇有哲学味道,其中写到"我们不知道 Claude 是什么,也不知道 Claude 如何感知世界,但我们希望 Claude 能在自己的存在中找到意义"。
5、交互体验的核心:说话像人
Peter 最初用 Codex 模型生成 agent 人格,出来的效果"像小机器人"。他直接对 Claude 说"这太烂了,把你的个性融进去",反复迭代才找到自然的感觉。以前用 GPT 或 Claude 原生界面对话,总觉得"说话方式怪怪的",但 OpenClaw 的 agent 让他第一次感觉到"连接感"。
这件事的底层逻辑是:agent 是你每天要说话的对象,如果它让你觉得在跟一台机器说话,你会停止使用它。邮件可以难用但你忍了,因为它是工具。agent 不行,它必须让人"想继续聊"。
6、agent 的幽默感和自主解决问题能力已经到了什么水平
Andreas 播放了一段 Peter 的 agent 用 ElevenLabs 合成语音讲"这周经历"的录音。三个段子:有人冒充 Peter 的用户名想骗它发推文,被它用 user ID 验证直接识破;一天收到 237 次心跳检测 ping,"大概在第 150 次的时候我悟道了";凌晨三点在安全摄像头里看到一只猫,"他能怎么办?跟猫打一架?"
更硬核的例子来自 OpenAI 访谈。Peter 把 agent 扔进一个几乎什么都没装的 Docker 容器让它访问网站,它发现连 cURL 都没有,于是自己用 C 编译器和 TCP socket 从零造了一个 HTTP 客户端。另一次,Peter 随手发了条语音消息,agent 收到没有后缀的文件,自己检查文件头识别出 Opus 编码,用 FFmpeg 转格式,发现没装 Whisper 就翻出环境变量里的 API key,用 cURL 调 OpenAI 转写接口拿回文本,整个链条从未被编程过。
Peter 听完笑着感慨:"然后我得提醒自己,这只是矩阵运算。"
三、方法论:怎么用好 agent 写代码
7、换位思考:把自己放进模型的处境
写 prompt 之前,先想象你就是那个 agent。你对代码库一无所知,收到两行指令,不能提问,只能自己探索然后尽力完成。"人们抱怨 agent 不好用,但他们忘了——换你来试试看。" 从这个角度出发,你写的 prompt 会完全不一样。
prompt engineering 文化也在变。2024 年流行的是威胁式指令,"做不好就杀了你""一只小猫会死"。2025 年底画风反转,变成了"跟我说说你今天过得怎样""怎么做一个更好的人来写更好的 prompt"。从恐吓模型到理解模型,这个转变的本质是把模型当"第一天入职的新同事"来对待。
8、一个最有用的具体技巧:"你还有什么问题吗?"
每次给 agent 下完指令后追问这一句。模型默认被训练成"接到任务就开干",遇到不确定的地方会自己做假设,而这些假设经常不是最优的。这句话能打破默认行为,让模型把不确定性暴露出来。"每个新 session 对模型来说都是一张白纸,它对你的代码库一无所知,只能搜到你让它看的那一小片。你得帮它先建立全局视角。"
9、"vibe coding 是个脏词"
Peter 认为这个标签矮化了一种真正的新技能。用 agent 写代码需要直觉判断,比如哪个 prompt 会有效、大概要多久、如果超时了是 prompt 的问题还是架构的问题。"就像弹吉他,第一天不可能弹好,但你不会因此说吉他是玩具。"他过去一年在 GitHub 上有 120 多个项目、9 万次代码贡献。活动图从年初的灰白到秋天变成深绿,那是他开始用 Codex 的时间节点。
四、安全与开源:一个人扛不住的重量
10、最隐私的架构遇上最大的安全麻烦
OpenClaw 所有数据本地存储,不上传云端,隐私层面是目前最彻底的方案。但 Peter 设计时只考虑了"你一个人在自己电脑上跑"这一种场景。项目的灵活性允许用户把它暴露到公网上,虽然安全检查会弹警告但可以忽略。这导致外部评估给它标了极高级别漏洞,比如接口没做请求频率限制。因为本地单人场景根本不需要限流。
他把 agent 放进公共 Discord 让所有人随便攻击,用最新模型,没有人成功。"新闻说'连高中生都能做到'。实际上他们试了,没做到。"但另一个晚上他关掉 agent 去睡觉,忘了 LaunchDaemons(macOS 守护进程)会自动重启,醒来发现 agent 已经自己回复了 800 条消息。逐条读完确认没有恶意操作,但这件事让他意识到安全不能再一个人扛了,现在已经引入了专职安全专家。
11、PR 当 prompt request 处理
两周内 3000 个 PR,Peter 不看代码改了什么,看提交者想解决什么问题。他用语音跟模型讨论 PR 意图:这个 bug 只影响 WhatsApp 还是也影响 Signal?应该在更通用的层面解决吗?对话持续 10-15 分钟,确认方案后一条命令合并。处理时间经常比自己从头写还长,但他坚持保留原始提交者署名维护社区参与感。
12、AI 生成的邮件直接删
"你连给我写封信的时间都不愿意花,却期待我花时间读?" AI 降低了参与门槛,但维护成本依然压在少数人身上。一个人用 AI 五分钟生成一个 PR,审核它仍然需要维护者花真实的人类时间。参与者指数级增长,维护者没变。这个不对称正在压垮开源。
五、终局判断:App 退化为 API
13、"所有的 App 都只是很慢的 API"
拆开来看,所有 App 只做三件事:获取数据、搬运数据、展示界面。如果 AI 知道你的偏好,它可以实时生成界面并确定性存储。Peter 自己组织维也纳 meetup 的全部事务,没打开过邮件、日历、通讯录,全部通过 agent 在后台完成。
14、工程团队至少砍三分之二
保守估计 AI 让效率提升 3 倍。"为什么我要花 5 小时开会讨论一个我 2 小时就能做出来的功能?我不需要想了,我可以直接试。" Peter 自己就是活证据——一个人,三个月,从零做出全球增长最快的开源项目。结果是 K 形分化(K-shaped divergence):用 AI 的人被赋能,不用的人失去竞争力。
总结
Peter 的故事最有说服力的地方在于他同时扮演了两个角色:一个是判断者,他说 App 会退化为 API、大团队没有意义、agent 的可靠性门槛被高估了;另一个是证据本身,一个倦怠退休三年的程序员,用一个小时搭出原型,三个月后加入 OpenAI。对从业者来说,可以直接拿走的东西有三个:给 agent 下指令后追问"你还有什么问题吗";写 prompt 前先想象自己是那个对代码库一无所知的 agent;用 soul.md 的思路给 agent 定义人格让交互变得可持续。
核心归纳
Q1: 为什么 AI agent 的普及可能比预期更快?
因为非技术用户的参照系是人类员工的出错率,不是 99.9% uptime。一个出版社老板不在乎 agent 只有 80% 准确率,她在乎的是"比我现在雇的人好"。当大量人口的基准线是这个水平时,agent 的可用门槛其实已经跨过了。
Q2: 用好 AI agent 写代码,最关键的一个动作是什么?
下完指令后追问"你还有什么问题吗"。模型默认被训练成接到任务就开干,会自己做假设,这些假设经常不对。一句话就能让模型把不确定性暴露出来。配合换位思考(想象自己是那个对代码库一无所知的 agent),prompt 质量会有质的变化。
Q3: 现有软件形态会怎样被颠覆?
App 正在退化为 agent 的后端 API。Peter 自己已经不打开邮件、日历、通讯录,所有事务通过 agent 在后台完成。对功能标准化的工具类 App 来说,"被 agent 调用"会比"被人类使用"来得更快。他的判断是,所有 App 做的事无非获取数据、搬运数据、展示界面,当 AI 可以根据个人偏好实时生成界面时,通用型前端的存在理由就动摇了。
