有研究团队把 Claude Code 公开的 TypeScript 源码拆了一遍,发现一个挺反直觉的结论——51.3 万行代码里,真正跟 AI 决策相关的部分只占 1.6%。
剩下的 98.4% 是什么?不是 prompt 魔法,而是大量工程基础设施:权限控制、上下文管理、工具调度、会话存储、任务隔离等等。
这点很值得琢磨。很多人做 AI 产品,第一反应是换模型、调 prompt、搞 agent 编排。但 Claude Code 真正厉害的地方,恰恰不是把模型包得多复杂,而是用一套很稳的工程系统,让模型可以安全、高效、持续地干活。
它的核心逻辑其实很简单:模型思考下一步要做什么 → 调用工具 → 拿到结果 → 再继续。
说白了,就是一个循环。但这个循环外面包了一层很厚的“安全壳”:什么时候能执行命令、什么时候要问用户、上下文快满了怎么压缩、子任务怎么隔离、会话怎么恢复,全都被系统管住了。
我觉得里面最值得学的几个设计是:
第一,上下文不是无限塞,而是分层压缩。Claude Code 有多层压缩机制,先删便宜的、无关紧要的工具输出,实在不够再做大段总结。这样不会动不动就把整个 session 压成一坨摘要,尽量保留关键上下文。
第二,CLAUDE.md 很特殊。它不是普通聊天上下文,而是每次从磁盘重新读取,所以不会因为上下文压缩被删掉。
也就是说,你写在 CLAUDE.md 里的项目规则、编码规范、架构约定,会一直存在。这也是为什么很多人说,Claude Code 用得好不好,CLAUDE.md 很关键。
第三,权限系统很细。Claude Code 不是简单地“允许所有”或“禁止所有”,而是根据工具、参数、目录、运行模式来判断风险。
低风险操作自动放行,高风险操作再问用户。这个设计比粗暴拦截好用很多,也更适合真实开发场景。
第四,Subagent 很聪明。复杂任务可以拆给子 agent 跑,而且子 agent 有独立上下文和 worktree。
它内部可能消耗很多 token,但最后只给主 agent 返回一小段摘要,比如“测试通过了”“类型检查没问题”。这样主会话不会被大量细节撑爆。
还有一点我很喜欢:Claude Code 的 session 是 append-only 存储的,可以继续恢复。claude --continue 不只是“接着聊”,而是继续使用一个已经理解过你项目的 agent。它知道之前看过哪些文件、跑过哪些测试、项目结构是什么,体验会比每次新开一个 session 好很多。
所以这篇分析给我的最大启发是:AI 产品的壁垒不只在模型,而在模型周围的工程系统。
模型负责“想”,但真正决定产品能不能长期稳定使用的,是权限、上下文、工具、存储、隔离、恢复这些看起来没那么性感的东西。
Claude Code 厉害的地方,不是让 AI 看起来更神,而是把 AI 当成一个很强但需要管理的工程师:给它工具,给它规则,给它权限边界,也给它持续工作的记忆。
~~~~~~~~~~
的确是这样,所以 Manus 是很值钱的。Deepseek V3.2 有一个 好的 agent, 输出结果是比当时的 ChatGPT、Claude 都要强的
