爱可可-爱生活 25-10-10 07:49
微博认证:AI博主 2025微博新锐新知博主

Anthropic发布的关于AI代理“上下文工程”的指南,彻底刷新了我们对上下文管理的认知,内容简明且极具洞见。

核心要点总结:

1. 上下文衰减(Context Rot)是真实存在的。
随着上下文窗口中token数量增加,模型准确回忆信息的能力下降。即使是百万token的大窗口也无法避免。

2. 提示工程与上下文工程并不矛盾,而是互补。
提示工程侧重写出清晰指令,获取理想输出;上下文工程更偏程序化,是精准填充上下文窗口信息的科学与艺术。

3. 系统提示(System Prompt)决定模型表现。
好的系统提示要具体又灵活,既能准确引导行为,又能赋予模型强有力的启发式判断。过于模糊或限制都不好。

4. 工具设计原则:名称清晰、职责分明、错误处理完善、结果简洁。
人类工程师不能明确判断用哪个工具,AI代理也不会知道。

5. 示例有帮助,但需精选多样且具价值的案例。
列一大堆边缘情况反而适得其反,不建议用“洗衣单”式的覆盖法。

6. 预处理投入时间绝对值得。
直接大量丢信息到上下文只会浪费资源,导致工具使用混乱、陷入死胡同或漏掉关键信息。

常用上下文工程技巧:

- 压缩总结(Compaction): 快接近上下文极限时,让代理总结对话历史,保留未解决问题、整体目标、执行步骤等关键信息。
- 结构化笔记(Structured note-taking): 代理在上下文窗口外做笔记,必要时调入使用。
- 子代理架构(Sub-agent architectures): 主代理遇非关键任务时生成子代理处理,结果返回后清理子代理上下文,保持主上下文整洁。

额外思考:
上下文工程的本质,是不断稳定和明确AI的“意图”,避免模型因信息过载或模糊而偏离目标。结合好提示设计与工程化的上下文管理,才能发挥LLM的最大效能,解决实际问题。

原文链接:x.com/Hesamation/status/1976303978364248530

---

这份指南不仅是AI代理设计的“秘笈”,还启示我们如何与大模型更高效地协作。上下文不是越多越好,而是“精准、有序、动态”最关键。期待更多创新方法涌现,助力AI更智能、更可靠!

发布于 河北