◆ geekjourney · docs
$⌘K
Vol. 5 · § 232026·05·04 · 0 words23
Ch. 5

上下文工程实战手册:15 个即用模板,让 AI 输出质量提升 10 倍

§ 23

Nav Toor 的 Context Engineering Playbook 中文精译版,包含身份设定、任务请求、上下文控制、系统构建和自动化五大类共 15 个可直接复制使用的模板。

UPDATED
2026·05·04 · git dev
GROUP
LANG
zh

上下文工程实战手册:15 个即用模板,让 AI 输出质量提升 10 倍

原文作者:Nav Toor · 发布于 2026 年 4 月 7 日

原文链接

上一次我解释了为什么「上下文工程」正在取代「提示词工程」。这一次,我直接给你可用的系统。复制、粘贴、立刻看到效果。

上一篇文章火了,几百万人读过。成千上万的人给我发了同一条消息:「概念我理解了,但我到底该输入什么?」

很公平。

上下文工程(Context Engineering) 是一门设计 AI 模型在生成回答之前所看到的一切内容的学科。不只是你的提示词——还有系统指令、记忆、工具、检索到的知识、动态组装……所有的一切。

Andrej Karpathy 说过一个最好的比喻:LLM 是 CPU,上下文窗口是内存,而你是操作系统。 每次执行任务,你决定什么被加载到内存里。

那篇文章讲的是理论。这篇给你的是系统——15 个模板,复制粘贴到 ChatGPT、Claude 或 Gemini 里,五分钟内就能得到明显更好的结果。

不需要写代码,不需要调 API,不需要任何技术背景。复制、粘贴、按需修改方括号里的内容就行。


§第一部分:身份模板(让 AI 知道它是谁)

这些模板替代每次 AI 会话前十分钟的废话。设置一次,之后每次对话都生效。

模板 1:个人上下文文件

这是你能做的投入产出比最高的一件事。一劳永逸地消除冷启动问题。

复制到 Claude 的 Custom Instructions、ChatGPT 的 Memory 或 Gemini 的 Gems 中:

我叫 [你的名字],在 [公司/场景] 担任 [你的角色]。

我的受众:[你为谁创造内容——客户、读者、团队、高管]。
当前优先事项:[列出你最重要的 2-3 个项目或目标]。
沟通风格:[直接/正式/随意/技术型]。我看重 [简洁/详尽/数据驱动推理]。

当我说「起草」时,我要一个我会自己改的初稿。当我说「写」时,我要一个接近终稿的版本。
默认格式:[要点 / 短段落 / 编号列表]。

如果不确定,先问我,不要猜。绝不编造数据。

为什么有效: 从此每次会话,AI 都已经知道你是谁、你在乎什么、你习惯怎么沟通。Anthropic 自己的工程团队称系统指令为「控制 Claude 行为最重要的杠杆」——这就是那个杠杆。

模板 2:品牌语调文件

防止 AI 听起来像个通用聊天机器人,让它像你一样说话。

我的写作语调规则:

语调:[例如:直接自信,不用模糊词和填充短语]
句子长度:[例如:短句。每段最多 2-4 句]
我常用的词:[列出 5-10 个定义你风格的关键词或短语]
我绝不用的词:[列出你讨厌的词——例如「赋能」「抓手」「颗粒度」「很荣幸」]
排版:[例如:加粗强调,不用斜体,除非特别说明不用 emoji]
结构:[例如:先给结论,再用论据支撑]

以下两段是我真实的写作样例:

[粘贴一段你写的真实文字]

[再粘贴一段你写的真实文字]

之后为我写的所有内容都要匹配这个语调。

为什么有效: 两段你的真实写作,比一千字的指令更有用。AI 通过模式匹配你的真实语调,而不是瞎猜。

模板 3:工作规则文件

阻止 AI 做你讨厌的事。

每项任务的规则:

1. 开始复杂任务前先问澄清问题,不要自作主张。
2. 呈现选项时,先给你的推荐,再列其他方案。
3. 绝不使用占位符文字。每个例子都必须具体且真实。
4. 如果任务需要当前数据,告诉我你无法验证,而不是编造数字。
5. 默认输出长度:[例如 300-500 字,除非我另行说明]。
6. 当我说「再短点」,砍掉 40%。当我说「再长点」,扩展 50%。
7. [加上你自己的规则:AI 总是做错但你希望永久停止的那件事]。

为什么有效: 你对 AI 输出的每一个不满,都是一条还没写出来的规则。这个文件把不满变成约束。规则写一次,错误不再犯。


§第二部分:任务模板(你该怎么提问)

用结构化请求替代模糊提示词,产出初稿级质量的输出。

模板 4:研究简报

在任意研究任务前使用,防止 AI 只给你肤浅的摘要。

研究 [主题]。

范围:[我具体需要知道什么——不是「关于 X 的一切」]
深度:[概览 / 详细分析 / 全面深挖]
来源:[优先使用一手资料 / 学术论文 / 行业报告 / 近期新闻]
时间范围:[仅限最近 6 个月 / 最近 2 年 / 不限]
输出格式:[要点摘要 / 分章节报告 / 对比表格]

每个论点附带来源名称和日期。不确定的地方标注出来。
不要包含我已经了解的背景知识。我知道 [说明你已经了解的内容,让 AI 跳过]。

为什么有效: 「不要包含我已经了解的背景知识」这一行,直接消灭了 AI 研究类回答前三分之一全是废话的问题。你在工程化「什么不该出现」的上下文。

模板 5:写作简报

用于任何内容创作任务。

写 [内容类型:邮件 / 文章 / 报告 / 社交媒体帖子]。

受众:[谁会读这个,他们关心什么]
目标:[读者读完后应该想什么、感受什么、做什么]
必须包含的要点:[列出 3-5 个必须出现的内容]
不能包含的要点:[不应该被提及的内容]
语调:[参考我的品牌语调文件 / 或指定:正式、随意、挑衅、共情]
长度:[具体字数或范围]
结构:[如何组织——分节、编号列表、叙事体]
参考:[粘贴或描述一个「好」的标准样例]

为什么有效: 「不能包含的要点」是被严重低估的一行。大多数人只告诉 AI 写什么。上下文工程师同时告诉它不写什么。约束产生聚焦,聚焦产生质量。

模板 6:决策框架

需要 AI 帮你思考,而不只是回答时使用。

我需要在 [选项 A] 和 [选项 B] 之间做决定(如有 [选项 C] 也列出)。

背景:[描述情况和这个决策为什么重要]
约束条件:[预算、时间线、团队规模、技术限制]
我的优先级:[什么最重要——速度、成本、质量、风险控制]
我目前的倾向:[你的直觉和原因]

给我:1. 包含最重要维度的对比表 2. 每个选项最有力的支持论据 3. 每个选项最有力的反对论据 4. 你的推荐和具体理由 5. 我可能忽略了什么

不要保持中立,表态。

为什么有效: 「不要保持中立,表态」是决策支持中最强大的一条指令。没有它,AI 黔回到「要看情况」的骑墙姿态。有了它,你得到一个明确的推荐——你可以反对这个推荐,但这比一个两边不得罪的总结有用得多。


§第三部分:上下文控制模板(管理 AI 知道什么)

解决 AI 最大的问题:模型遗忘、幻觉、在对话中途偏离你的目标。

模板 7:会话启动器

在任意复杂的、多步骤的会话开始时使用。

在开始之前,这是本次会话的上下文:

项目:[名称和一句话描述]
当前状态:[目前进展到哪了]
上次完成了什么:[如果有的话,上次会话的工作摘要]
本次目标:[具体的交付物或成果]
参考文件:[列出要使用的文档、链接或之前的输出]
约束条件:[时间、字数、格式、范围限制]

确认你理解了全部上下文后再开始。

为什么有效: 这是上下文加载(Context Loading)——在模型生成第一个 token 之前,前置所有它需要的信息。LangChain 的上下文工程框架把这叫做「选择上下文」。你在正确的时间,把正确的信息拉进窗口。

模板 8:反幻觉护栏

在涉及事实、数据或论断的任何任务中使用。

本任务的重要规则:

1. 只包含你能从我提供的来源或训练数据中直接验证的信息。
2. 如果你对某个具体事实、数字或日期不确定,用 [待核实] 标注。
3. 不编造统计数据。不捏造引用。不创建虚假参考文献。
4. 如果你被问到超出知识截止日期的内容,明确说不知道,不要猜。
5. 清楚区分「这是事实」和「这是我的分析」。

为什么有效: [待核实] 标签系统是最简单的反幻觉技术。与其指望 AI 不瞎编,不如给它一个显式的安全阀。当模型有权限标注不确定性时,编造的倾向大幅降低。Anthropic 自己的文档也推荐在高风险的事实类任务中使用这种做法。

模板 9:上下文重置

对话跑偏时使用。

停。我们重置这次对话。

我们真正要完成的是:[重述原始目标]
出了什么问题:[描述哪里跑偏了]
我希望你现在怎么做:[具体指令]

忽略这条消息之前所有与之矛盾的内容。从这里重新开始。

为什么有效: 长对话会遭受研究人员所说的**「上下文腐烂」**——模型的注意力漂移到最近的对话,丢失了原始指令。Claude Code 在达到上下文窗口 95% 时会自动触发「压缩」,通过摘要来保持聚焦。这个模板让你在任何 AI 工具中手动做同样的事。一次干净的重置,比十条纠错消息都强。


§第四部分:高级模板(构建系统,而非对话)

从「用 AI 当聊天工具」升级到「构建 AI 驱动的工作流」。

模板 10:项目规则文件(CLAUDE.md)

用于 Claude Code、Cursor 或任何 AI 编码工具。这是控制每次交互的上下文文件。

# 项目:[名称]

## 架构

- 语言:[例如 TypeScript]
- 框架:[例如 Next.js 15]
- 数据库:[例如 PostgreSQL + Prisma ORM]
- 测试:[例如 Vitest 单元测试 + Playwright 端到端测试]

## 代码规范

- 使用函数式组件,不用类。
- 所有函数必须有显式返回类型。
- 错误处理:使用 Result 类型,不用 try-catch。
- 文件命名:kebab-case。一个文件一个组件。

## 工作流规则

- 先写测试,再写实现代码。
- 标记任务完成前跑完所有测试。
- 绝不修改当前任务范围之外的文件。
- 不确定架构决策时,先问再做。

## 常见错误(避免)

- 不要在生产代码里加 console.log。
- 不要未经明确批准安装新依赖。
- 不要在任务不要求时重构已有代码。

为什么有效: 这个文件在每次 Claude Code 会话开始时自动加载。每条指令自动应用于每个任务。对开发者来说,上下文工程意味着永远不用重复同一条纠错——把纠错编码进规则文件,它就变成永久的。

模板 11:多步骤任务规划器

防止 AI 在复杂任务中赶工。

我需要你完成一个复杂任务。不要立刻开始执行。

首先,创建一个编号计划,包含完成此任务所需的每一步:
- 你需要什么信息
- 按什么顺序工作
- 每一步的交付物长什么样
- 每一步可能出现什么问题

在我批准计划之前,不要执行任何步骤。批准后,逐步执行,每完成一步确认后再进行下一步。

任务:[描述你需要什么]

为什么有效: 这是「规划-执行-验证」循环在任意 AI 工具中的应用。AI 最大的失败模式是不想就做。强制它先规划、等批准,能大幅提升复杂多步骤工作的质量。这反映了智能体工程工作流的设计原则——先规划,再执行,最后验证。

模板 12:自评估循环

让 AI 在展示结果之前先检查自己的工作。

完成此任务后,在展示给我之前先自行评估。

对照以下标准检查:1. 是否完整回应了我列出的每一项要求? 2. 有没有事实存疑或未验证的内容? 3. 长度是否在指定范围内? 4. 语调是否匹配我的品牌语调? 5. 有没有不增加价值的填充句?删掉它们。 6. 我愿意署名发布这个内容吗?如果不愿意,哪里需要改?

如果输出未通过任何一项检查,先修改再展示给我。只展示你最好的版本。

为什么有效: 这一个模板就能把你的编辑时间砍掉一半。AI 不再是你的初稿生成器+审阅者,而是变成了自己的第一审阅者,展示给你的是第二稿。Anthropic 把这种模式称为「思维链自我验证」。你在工程化上下文中加入了一个交付前的评估步骤。


§第五部分:工作流自动化模板

把一次性对话变成可复用的系统。

模板 13:每周简报系统

设置为周期性计划任务,或每周一运行。

按以下结构生成我的每周简报:

1. 优先行动:本周我需要采取行动的最重要的 3 件事是什么?基于 [我的日历 / 邮件 / 项目状态]。
2. 会议准备:列出本周的会议。每场包括:参会人、议题、我应该准备的一件事。
3. 待跟进:列出上周我说了要跟进但还没完成的任何事项。
4. 阅读清单:总结过去 7 天在 [我的行业 / 话题领域] 最相关的 3 篇文章或更新。

每个部分保持简洁。每部分不超过 5 条。最紧急的放最前面。

为什么有效: 这是上下文工程应用于工作流自动化。你写的不是一条提示词——你在设计一个反复运行、随着上下文文件完善而持续改进的信息系统。AI 从你连接的工具(日历、邮件、网络)中拉取信息,组装出一份手动编辑需要 30 分钟的简报。

模板 14:会议笔记处理器

每次会议后使用,从原始笔记中提取结构化价值。

以下是我的原始会议笔记:[粘贴或上传笔记]

按以下结构处理:

1. 已做出的决策:决定了什么?把每条决策写成清晰的陈述。
2. 行动项:谁需要在什么时候做什么?格式:[人名] — [行动] — [截止日期]
3. 待解决问题:提出了但没解决的问题是什么?
4. 关键原话:任何值得原文保留的重要发言。
5. 后续步骤:接下来发生什么,下次会议什么时候?

如果笔记中有不清楚的信息,标注 [不清楚],不要猜测。

为什么有效: 原始会议笔记是混乱的。这个模板应用了 LangChain 的「压缩上下文」策略——把大量非结构化输入压缩成只保留有价值的 token。[不清楚] 标签应用了和模板 8 相同的反幻觉逻辑——标注不确定性比编造细节更好。

模板 15:技能构建器

把任何可重复任务变成永久上下文模板。

我刚完成了一个以后还需要做的任务。帮我把它变成可复用的模板。

任务描述:[描述你刚做了什么]
哪些地方做得好:[输出的哪些方面是好的]
我手动修正了什么:[AI 做错了、你纠正了的地方]
下次希望改进什么:[下一次迭代的改进点]

创建一个详细的指令模板,我可以保存并重复使用。包括:
- AI 开始前需要知道的具体上下文
- 完成任务的分步指令
- 质量标准和约束条件
- 常见错误(基于这次我修正的内容)
- 输出格式和结构

写成可以直接粘贴到任何 AI 工具中、每次都能得到一致结果的形式。

为什么有效: 这是元上下文工程——用 AI 来构建你自己的上下文模板。每个重复的任务都变成一个模板。每个模板都消灭一条你再也不用写的提示词。LangChain 把这叫做「写入」策略——把上下文保存到外部以便之后加载。几周下来,你的整个工作流都编码在可复用的文件中。系统变聪明了,但模型没有变——这才是核心。


§模板背后的系统

把这 15 个模板串联起来的心智模型:

层级模板回答的问题
身份层模板 1-3「我在跟谁说话?」设置一次,AI 永远认识你
任务层模板 4-6「你现在具体需要什么?」每次新请求时使用
控制层模板 7-9「怎么让 AI 不跑偏?」出问题或变复杂时使用
系统层模板 10-12「怎么构建工作流而非对话?」专业和开发工作使用
自动化层模板 13-15「怎么让它自己跑?」把一次性工作变成可重复系统

叠加使用这些层。 模板 1 + 模板 5 + 模板 12,意味着 AI 知道你是谁、理解你具体需要什么、在展示之前还会自检。三个模板,十秒加载,输出两分钟审完——而不是二十分钟改不完。

复制一个模板的人,明天就能得到更好的结果。搭建完整五层系统的人,今年余下的每一天都会获得复利回报。

上下文工程不是写更好的提示词。是构建更好的系统。

模板在这里。系统已经解释了。剩下的,就是开始。