Matt Pocock关于设计大语言模型(LLM)提示词的经验,分享了一套简单高效的4步法,适合快速单次调用,同时也介绍了更复杂的10步模板,帮你玩转不同场景:
---
4步轻量提示法(适合快速交互)
1.
给模型提供必要背景信息,比如对话记录、文档、链接。用XML标签包裹,明确数据边界。
2.
明确告诉模型任务是什么,要它做什么。可以用标签包裹,也可以直接说明。
3.
说明做这件事的原因,告诉模型“为什么”,这能激发模型反思和优化方案,产出更优结果。
4.
告诉模型返回什么格式的结果,比如只要摘要或者分段输出,方便后续处理。
这4步能让提示简洁且具备足够上下文,尤其适合单次调用如Claude Code。
---
10步完整版模板
适合复杂应用和系统构建,能更细致地划分需求,提升模型理解和表现。
详情见Matt的原帖(x.com/mattpocockuk/status/1958179930262356032)
---
额外思考
-“为什么”不只是给模型信息,更是提醒自己补充关键背景,避免遗漏。
- 结构化提示和灵活使用不同层级,能帮助在效率和效果间找到平衡。
- 这与最新的LAM(Learned Action Model)理念相呼应:让AI知道何时思考,何时执行,提升智能交互体验。
---
总结
简单清晰的提示设计,结合任务背景与目标,能显著提升大模型的表现和实用性。
无论是轻量快速用,还是复杂系统搭建,都值得尝试这套方法论。
---
原推文链接:x.com/mattpocockuk/status/1976570649188438143
发布于 河北
