默庵·超级个体 26-04-11 10:00
微博认证:微博新知博主 科技博主 头条文章作者 微博原创视频博主

Nav Toor 最近写了一篇很有分量的文章,标题直接点明了一个正在发生的行业转向:Context Engineering 正在取代 Prompt Engineering,成为区分 5 万美元年薪和 50 万美元年薪开发者的关键技能。这篇文章的信息密度很高,从行业数据到技术架构再到实操路径都讲得很透,值得仔细拆解。

1、提示工程为什么死了

先说一组数据。LinkedIn 上标注“Prompt Engineer”头衔的个人资料,从 2024 年中到 2025 年初下降了 40%。专门招聘提示工程师的岗位在所有 AI 相关职位中的占比,峰值时也只有 0.3%,之后就一路走平接近归零。Gartner 预测到今年年底,70% 的企业会使用 AI 驱动的提示自动化。

一个号称是未来的职业,大概只活了十八个月。

Nav Toor 分析了三个同时发生的致命打击。

第一,模型自己变聪明了。GPT-5.4、Claude Opus 4.6、Gemini 3.1 这些模型对自然语言的理解能力已经强到你不需要再写“请扮演一个专家”或者“请一步一步思考”这类提示词了,模型自己就会这么做。精心措辞的技巧被模型本身的能力给自动化了。

第二,任务变长了。2023 年大部分 AI 交互还是一问一答的模式,但到了 2026 年,AI Agent 跑的是跨越数小时的多步骤工作流,要读文件、调 API、写代码、自检、迭代。一个完成需要 47 次工具调用的流程,靠一条提示词根本管不住。提示词变成了一本千页书里的一句话,它已经不是决定结果的关键因素了。

第三,岗位被吸收了。提示工程的工作没有消失,但它被折叠进了软件开发、产品管理、数据分析和运营这些已有的岗位里。LinkedIn 的数据显示,在提示工程头衔下降 40% 的同一时期,“AI 工作流设计”作为一项技能增长了 25%。提示工程从一个职业变成了简历上的一行字。

这段分析其实揭示了一个更普遍的规律:当一项技能的门槛被技术本身拉低到几乎为零的时候,它就不再值钱了。三年前你会写提示词是稀缺能力,今天模型自己就能理解你随便说的话,这项技能的稀缺性就消失了。真正值钱的东西永远在往更高的抽象层迁移。

2、上下文工程到底是什么

Nav Toor 引用了 Anthropic 官方工程文档里的定义:上下文工程是“在 LLM 推理过程中,策划和维护最优 token 集合的策略”。翻译成大白话就是:决定 AI 在生成回答之前应该看到什么信息、什么时候看到、以什么格式看到,让输出的质量是可靠的,而不是靠运气的。

如果说提示工程关注的是“你怎么问”,那上下文工程关注的是“AI 看到了什么”。一个是一句话的事,另一个是一整套架构。

这个区别看起来微妙,但影响是根本性的。提示工程的天花板就是一条消息的长度,而上下文工程的天花板是你能构建多复杂的信息系统。

3、上下文工程的五个组成部分

Nav Toor 把上下文工程拆解成了五个核心模块,缺一个系统就会退化,五个都建好了,AI 产出的东西你才敢署自己的名字。

**第一个是系统指令。** 这是每次交互之前就加载好的持久性规则,告诉 AI 它是谁、怎么行动、什么该避免、质量标准是什么。在 Claude Cowork 里,这就是你的 [about-me.md](http://t.cn/AXco2qPw)、[brand-voice.md](http://t.cn/AXco2qPL)、[working-rules.md](http://t.cn/AXMi0I1q) 这些上下文文件。在 Claude Code 里,这就是你的 [CLAUDE.md](http://t.cn/AXLo0vJd) 文件。关键在于:系统指令不会在会话之间变化,你写一次,永久生效。每次会话开始的时候,AI 已经知道你是谁、你怎么写作、什么算好的输出。

很多人用 ChatGPT 的时候,每次新对话的前十分钟都在跟 AI 对齐:我是做什么的、我需要什么风格、请注意什么。上下文工程师花在这件事上的时间是零,因为文件已经永久性地替你做了这个工作。光是这一点,就能省掉大量的重复劳动。

**第二个是记忆与状态。** 短期记忆是 AI 在一次对话里记住的东西,长期记忆是跨会话持久保存的信息,状态是 AI 在多步骤流程中走到了哪一步、做了什么、还需要做什么、已经做了哪些决策。

Anthropic 的研究把这叫做“结构化笔记”。AI 给自己写笔记,比如待办清单、进度日志、[NOTES.md](http://t.cn/AXMi0I15) 文件,这些东西保存在上下文窗口之外,需要的时候再拉回来。没有记忆,每次会话都从零开始;有了记忆,每次会话都从上次结束的地方继续。这就是一个工具和一个系统之间的区别。

**第三个是工具集成。** AI 模型本身只能读文字和写文字,上下文工程给它装上了手。工具就是 AI 可以调用的功能:搜索网页、读文件、查数据库、发邮件、查日历、跑代码。Anthropic 在 2024 年底发布的 MCP 协议已经成了这个领域的标准,现在有 Gmail、Google Drive、Slack、GitHub、Notion、Salesforce 等几百个 MCP 服务器,每一个都让 AI 能触达一个它以前碰不到的系统。

这里有一个容易被忽略的技术细节:工具的定义本身就是上下文的一部分。一个写得好的工具定义就是上下文工程,一个写得差的会浪费 token 还会让模型犯糊涂。

**第四个是检索增强。** 模型有训练数据的截止日期,它不知道你公司的内部政策、你的 Q1 销售数据、你客户昨天发的邮件。检索增强生成(RAG)就是在模型生成回答之前,先去你的知识库里搜索相关信息,拉进上下文窗口,让模型基于你的真实数据而不是训练数据来回答。

在 Claude Cowork 里,这就是你把 AI 指向电脑上的一个文件夹,它会读里面所有的文件。Opus 4.6 有一百万 token 的上下文窗口,意味着整个项目目录、整个代码库、整个研究资料库都可以一次性加载进一个会话里。

Nav Toor 说了一句很到位的话:一个会产生幻觉的 AI 和一个能引用你自己数据的 AI 之间的差别,不在于模型更好,而在于检索更好。这就是上下文工程。

**第五个是动态上下文组装。** 这是上下文工程跟之前所有方法的根本区别。静态系统每次加载同样的信息,动态系统根据不同的任务组装不同的上下文。你问代码问题,它加载你的代码风格指南和最近的 Git 提交;你问写作问题,它加载你的品牌语调文件和最近的文章;你问会议准备的问题,它加载你的日历、收件箱和参会人资料。

Anthropic 在他们的 Skills 系统里把这叫做“渐进式披露”。Claude 不会把你安装的所有 Skill 都加载进来,它先读描述,判断哪些跟当前任务相关,只加载需要的。上下文是动态组装的,针对具体任务优化的,每一次都是。

这就是为什么它叫上下文“工程”。它不是写一条好指令的事,而是设计一个系统,让它能自动地、动态地、每次都组装出正确的信息。

4、提示工程 vs 上下文工程:同一个任务,两种完全不同的体验

Nav Toor 举了一个非常直观的对比例子。

提示工程的做法:你打开 ChatGPT,输入“给我的客户 John 写一封专业邮件,关于 Q1 交付延迟两周的事,语气要道歉但自信。”你得到一封还行的邮件,然后花 15 分钟修改,因为语气不对,它不知道 John 对截止日期很敏感,而且用了两次“leverage”。

上下文工程的做法:你打开 Claude Cowork,输入“给 John 发邮件说 Q1 延迟的事。”Claude 已经从你的品牌语调文件里知道你的写作风格,从项目上下文里知道 John 是优先客户,通过 Gmail 连接器查了你跟 John 最近三封邮件来匹配语气,从你的 Skills 里知道公司的沟通标准。它产出的邮件听起来就像你自己写的。修改时间:两分钟,可能是零。

同样的任务,同样的 AI 能力,完全不同的架构,完全不同的结果。提示工程师写了一个更好的问题,上下文工程师建了一个更好的系统。一个每次会话都归零,另一个每周都在积累。

这个例子其实说明了一件很重要的事:当你觉得 AI 输出质量不行的时候,问题大概率不在提示词上,而在上下文上。AI 不是不够聪明,是它不知道它应该知道的东西。

5、职业影响:被裁的不是不会用 AI 的人

Nav Toor 引用了一些很扎眼的数据。Shopify CEO Tobi Lutke 在 2025 年发了一份内部备忘录:在招任何新人之前,管理者必须先证明 AI 做不了这个工作。AI 使用情况已经被纳入了 Shopify 的员工绩效考核。2026 年 3 月,仅一个月就有 4.5 万名科技工作者被裁,来自亚马逊、谷歌、微软、Meta 这些大公司。

Nav Toor 指出了一个残酷的规律:被裁的不是那些不会用 AI 的人,而是那些把 AI 当工具用的人。聊天、复制、粘贴、重复。活下来并且发展得好的,是那些围绕 AI 构建系统的人。

ZipRecruiter 上已经有了“上下文工程师”这个岗位,截至文章发布时有 60 个在招职位,薪资区间在 8.4 万到 23.5 万美元之间。这个学科诞生还不到两年,就已经有了自己的薪资带。

这个趋势对所有人都有参考价值。不管你是什么行业、什么岗位,“会用 AI”这件事的门槛正在快速降低,很快就不再是竞争优势了。真正的竞争优势在于你能不能围绕 AI 建立一套持续积累、持续优化的工作系统。用 AI 聊天是消费,建 AI 系统是投资,两者的回报曲线完全不同。

所以,**在 AI 时代,消费型使用和投资型使用之间的差距,会像复利一样指数级拉大。**

什么是消费型使用?每次打开 AI,问一个问题,拿到答案,关掉。下次再来,从零开始。你用了 AI,但 AI 没有因为你的使用而变得更懂你。

什么是投资型使用?你每次使用 AI 的过程中,都在往系统里沉淀一点东西。一个写作风格的偏好,一个任务流程的封装,一条质量标准的补充。第一周和第五十周,你用的是同一个 AI,但第五十周的那个 AI 已经积累了你几十周的经验、偏好和判断标准,它产出的东西跟第一周完全不是一个水平。

这两种人之间的差距,不是天赋,不是智力,不是时间,是**有没有建一个会长大的系统**。

6、普通人怎么从零开始

Nav Toor 在文章最后给出了一条非常清晰的实操路径,不需要你是开发者。

**第一步,建三个文件。** 在一个文件夹里创建三个 markdown 文件。[about-me.md](http://t.cn/AXco2qPw) 写你是谁、你的角色、你的受众、你当前的优先事项,不是简历,是给一个聪明的协作者看的简报。[brand-voice.md](http://t.cn/AXco2qPL) 写你的写作风格、语气、常用词汇、绝对不用的词,附上两三个你自己写的真实样本。[working-rules.md](http://t.cn/AXMi0I1q) 写你希望 AI 怎么行动,比如执行前先确认、默认文件格式、质量标准、不确定时怎么处理。

把 Claude Cowork 指向这个文件夹,从此每次会话都带着完整的上下文启动。你一次性消灭了每次 AI 交互前十分钟的重复对齐工作。

**第二步,把你最常做的事变成一个 Skill。** 想想你重复最多的任务,让 Claude 帮你把它封装成一个 Skill 文件,以后只要任务匹配就自动加载。一个 Skill,十五分钟,你就永久消灭了一条你再也不用写的提示词。

**第三步,连接你的真实数据。** 在 Claude 设置里连接 Gmail 和 Google Calendar,然后试试说“总结一下我今天的会议,检查收件箱里有没有跟它们相关的邮件”。Claude 会拉取你真实的邮件和日历数据,交叉比对,给你一份原本需要你花十五分钟手动整理的简报。

**第四步,建一个自动化的周一早间简报。** 让它自动汇总周末的邮件、列出本周的会议、根据变化识别出你的前三个优先事项。当你第一个周一早上走到办公桌前,发现一份用你的语气写好的、优先级已经排好的完整简报在等着你的时候,一切就不一样了。

**第五步,持续迭代。** 每次 Claude 产出的东西你不满意,问自己一个问题:这是提示词的问题还是上下文的问题?几乎每次都是上下文的问题。往你的品牌语调文件里加一行,调整一下工作规则,更新一个 Skill。五分钟的文件编辑,永久性的改进。系统变得更聪明,不是因为 AI 进步了,而是因为你的上下文进步了。

7、复利效应:两种人的差距会越来越大

Nav Toor 在文章结尾描绘了一条时间线上的分化。

一个提示工程师在第一周和第五十周用 AI 的方式是一样的。每次会话从零开始,每条提示词手工打造,技能天花板就是一条消息的长度。

一个上下文工程师在第一周建的架构让第二周更好,第二周的优化让第三周更好。到第八周,系统产出的初稿已经不需要编辑了。到第十二周,定时任务在没有人参与的情况下跑完整个工作流。到第二十周,系统积累的机构知识是任何提示词都无法复制的。

这两个人之间的差距不是天赋、不是智力、不是时间,而是架构。一个人建了一个会复利增长的系统,另一个人还在每天往同一个聊天窗口里打同样的指令。

提示工程是一次对话,上下文工程是一套基础设施。一个每次归零,一个持续积累。

这个选择摆在每个人面前,而做出选择的窗口期,比上一次关得更快。

#科技先锋官# #How I AI#

发布于 山东