“不要把核心价值押注在补足模型能力缺口上”,这个点赞👍
我这两年的一个收获就是做产品设计的时候,基于未来的模型能力和 token 成本去设计,没必要去花很多时间精力去节约token成本,没必要去通过提示词工程去迁就能力不行的模型。
但是 Prompt Engineering 是有价值的,甚至是护城河之一。
如果说的是记住几个 prompt 模板这种层面,确实没什么壁垒。
但如果是深层的,理解模型的认知模式、知道怎么把复杂业务问题分解成模型能处理的结构、能设计好人机协作的工作流,这些能力不会因为模型变强就消失,反而会更重要。
模型越强,掌握好 Prompt Engineering 的人和不会用的人之间差距越大,不是越小。
类似的,“复杂规则补丁”的补丁会过时,打补丁的能力不过时,Engineering 能力不会过时。
---
“认错速度是正资产”
“认错速度”我非常认同,但我会换个说法:是“更新心智模型的速度”。
认错是被动的,你做了一个判断,事实证明错了,你承认并调整。这当然很重要,但它有一个前提:你得先犯错,然后被现实打脸。
更新心智模型是主动的,你不需要等到犯错才调整。你观察到环境变了,主动去重新评估自己的一整套假设。
光认错是响应式的,真正的护城河是你能比别人更早感知到变化,更快重建一套新的认知框架去应对它。
比如 Claude Code 这样的 Coding Agent 出来,能马上意识到以前那种对话、补全式的编码方式是不够好的,尽早开始用起来。
比如 Agent Skills 出来,能意识到不一定需要从头打造一个 Agent,也许直接做 Skills、编排 Skills 就够了。
比如 OpenClaw 出来,意味着 Agent 的交互不必局限于 CLI,还可以通过聊天 App;意味着和 Agent 之间不必再局限于一问一答,还可以让 Agent 主动发起对话,更不必纠结于它技术实现只不过是一个定时器。
---
“复杂系统的编排能力”也很对,数据孤岛、组织阻力、权限、习惯成本,这些是模型能力再强也吃不掉的,因为它们不是智能问题,是人和组织的问题。
但“编排能力”离不开专业领域知识,模型降低的是通用知识的门槛,但在医疗、法律、金融等领域,真正的专业判断力并不会被抹平。
纯粹的“编排”如果没有领域理解,编排出来的东西也是不靠谱的。
---
除此之外:
第一,问题定义能力。
模型越强,“怎么做(HOW)”越不值钱,“做什么(WHAT)”和“为什么做(WHY)”越值钱。能精准定义问题、判断什么值得做,这个能力模型替代不了。
第二,领域知识 + AI 能力的交叉。
不是单纯懂 AI,也不是单纯懂某个行业,而是能把两者结合起来,知道在具体场景下 AI 能解决什么、不能解决什么,怎么把 AI 嵌入到真实工作流里产生价值。
第三,品牌和信任。
在信息爆炸且 AI 生成内容泛滥的时代,人们会越来越依赖可信的人来做信息过滤,这是一条很深的护城河,模型再强也替代不了。
第四,执行力和速度。
从想法到落地的完整闭环速度。很多人能看到趋势,但能快速把想法变成产品、内容、服务的人永远是少数。
