掌握上下文工程:新手程序员必备技能,轻松提升大模型代理能力(收藏版)

张开发
2026/4/12 3:18:03 15 分钟阅读

分享文章

掌握上下文工程:新手程序员必备技能,轻松提升大模型代理能力(收藏版)
上下文工程是构建高效AI代理的关键技术它通过系统化地管理信息流帮助大语言模型在有限的上下文窗口内完成任务。本文介绍了上下文工程的概念、四大策略写入、选择、压缩、隔离以及多代理与单代理架构的权衡。文章强调上下文工程能避免长上下文带来的污染、干扰、混乱和冲突等问题是代理工程师的核心技能。通过学习本文你将掌握如何为AI代理提供恰当的信息和工具从而提升代理系统的性能和可靠性。LangChain 在博客中将上下文工程context engineering定义为构建动态系统为大语言模型提供恰当的信息和工具使其“有可能完成任务”。与早期只靠提示词的“prompt engineering”不同上下文工程强调的是系统性代理的上下文来自开发者、用户、历史交互、工具调用或其他外部数据必须通过系统化的逻辑组合在一起动态性这些上下文通常是实时生成的因此构建最终提示必须具有动态拼接能力正确的信息与工具代理出错往往不是模型能力不足而是缺乏恰当的信息或工具。因此必须保证提供的信息充分且格式合适安德烈·卡帕西Andrej Karpathy用操作系统做了一个类比LLM 就像CPU上下文窗口是RAM工作内存而上下文工程就是决定哪些信息可以放入 RAM 的“调度器”。由于 RAM 容量有限上下文工程需要精心挑选和组织信息以避免溢出。为什么代理需要上下文工程在代理系统中任务往往是多轮对话和工具调用的组合导致上下文越来越长。这会带来两个问题成本与效率长上下文会增加模型的计算成本和延迟并可能导致模型性能下降新的失败模式Drew Breunig 总结了长上下文的四大失败模式上下文污染Context Poisoning幻觉或错误信息进入上下文后被反复引用代理会围绕错误目标做出决策上下文干扰Context Distraction上下文过长导致模型过度关注历史而忽略训练知识反复重复已有行为上下文混乱Context Confusion上下文中无关的内容如过多的工具说明干扰模型使其调用不必要的工具上下文冲突Context Clash上下文中出现相互矛盾的信息时模型难以判断取舍因此仅依靠扩大上下文窗口并不能解决问题反而会引入新的风险。上下文工程旨在通过合理整理、压缩和隔离信息避免上述失败模式。上下文工程的四种策略LangChain 将常见的上下文工程策略分为写入Write、选择Select、压缩Compress和隔离Isolate。这些策略并不是孤立的而是在复杂代理中相互配合使用。1. 写入Write——在上下文之外持久化信息写入策略指将信息存储在上下文窗口之外供未来检索。例如Scratchpad草稿本类似人类做笔记代理通过工具调用将临时信息写入文件或状态对象在任务过程中随时访问。Anthropic 的多代理研究系统会在计划开始前将研究计划写入记忆以防上下文超过 20 万个 token 时被截断anthropic.com。LangGraph 为代理提供了short‑term memory检查点来在会话内保存状态blog.langchain.com。长期记忆Memory有些信息需要跨会话保存例如用户偏好或历史反馈。生成式代理Generative Agents通过定期汇总过去的反馈构建长期记忆。现在的一些产品如 ChatGPT、Cursor 和 Windsurf 也自动生成长期记忆2. 选择Select——从记忆中提取相关信息选择策略是将外部记忆、文件或工具调用结果拉入当前上下文。常见做法包括小样本示例Few‑shot examples作为情景记忆episodic memory帮助代理模仿预期行为指令/规则Procedural memory用于指导代理行为如 Claude Code 中的CLAUDE.md规则文件事实Semantic memory存储知识、实体信息供检索调用在 LangGraph 中开发者可以在每个节点按需检索状态或长期记忆并通过嵌入检索等方式选取最相关的记忆。对于工具选择一些研究表明使用 RAG 技术对工具说明进行检索可以使选择准确率提高 3 倍不同记忆类型一览重点词条避免冗长描述记忆类型存储内容代理示例语义记忆Facts事实关于用户的事实情景记忆Experiences经历过去的代理动作程序记忆Instructions指令系统提示或规则3. 压缩Compress——保留必要的信息压缩策略通过摘要summarization或修剪trimming减少上下文长度摘要通过 LLM 压缩对话历史只保留关键决策。Claude Code 会在上下文超过 95% 时运行 “auto‑compact” 自动摘要。在 Cognition 的代理中还使用专门微调的小模型来压缩代理间的交互以减少知识传递时的 token 数修剪通过启发式方法删掉旧消息例如只保留最近的几轮对话也可以用训练出的Provence模型对检索内容进行句子级别的剪枝它将上下文剪枝任务视为序列标注问题在多领域问答中几乎不损失性能压缩并不是万能的过度摘要可能遗漏关键细节修剪也有风险因此需要结合任务特点谨慎使用。4. 隔离Isolate——拆分上下文以并行处理隔离策略通过分工合作减少单个上下文窗口的压力。例如多代理架构Anthropic 的 Research 系统采用主代理 子代理模式主代理制定研究计划并将任务分配给多个子代理并行搜索子代理拥有自己的上下文窗口并在完成后将结果返回由主代理汇总。该系统在广度优先查询中比单代理效果提升 90% 以上但使用的 token 约是对话模式的 15 倍因此只适用于价值高且可并行的任务分离环境与沙盒Hugging Face 的代码代理通过将代码执行放在沙盒环境中图像或大型对象留在沙盒内返回值再传回 LLM这样可以隔离大量 tokenhuggingfaceOpen-source DeepResearch – Freeing our search agents状态对象在 LangGraph 中开发者可以设计包含多个字段的状态 schema只将messages字段暴露给模型而将其他字段留作环境使用不过Cognition 指出多代理架构容易出现上下文缺乏共享、决策冲突等问题并总结出两个关键原则原则 1共享上下文和完整的代理轨迹原则 2决策隐含偏好冲突会产生坏结果因此在实际应用中应谨慎使用多代理必要时更倾向于线性单代理配合压缩技术。链接内容梳理《The Rise of Context Engineering》LangChainLangChain 在文章中阐述了为什么上下文工程是下一代 AI 工程师最重要的技能。作者指出随着应用从单一提示转向动态的代理系统构建能够动态组织信息、选择工具并以合适格式传递给模型的系统是成功的关键文章强调代理性能差往往是因为缺乏正确的上下文和工具上下文工程包括系统地收集信息、动态构建提示、提供合适工具并保证格式合理blog.langchain.com适当的上下文和工具比花哨的提示词更重要提示工程只是上下文工程的一个子集《Don’t Build Multi‑Agents》CognitionCognitionDevin 团队反对盲目构建多代理系统认为上下文工程才是构建可靠代理的核心。他们指出上下文工程是比提示工程更高级的技能是代理工程师的核心工作多代理架构看似诱人但容易造成误解和冲突。即便给子代理复制完整任务描述也无法避免上下文缺失因为实际任务涉及多轮对话和工具调用任何细节缺失都会影响理解Cognition 总结两条原则共享上下文、共享完整的代理轨迹每个动作都隐含决策冲突会导致坏结果他们建议在多数情况下采用单线程线性代理并通过压缩模型来保留关键信息使长任务也能可靠完成《How we built our multi‑agent research system》AnthropicAnthropic 描述了他们为 Claude 构建研究模式的经验。文章认为多代理系统适合探索性研究等开放性任务。主代理解析用户查询生成计划并创建多个子代理并行搜索信息子代理各自拥有独立的上下文窗口和工具可以探索问题的不同方面再由主代理汇总提供分工明确、各自为政的优点内部评测显示该系统在广度优先问题上比单代理方案提升 90%但成本高昂token 使用量约为对话的 15 倍因此仅适合价值高、可以充分并行的任务他们通过写入计划到记忆来解决上下文截断问题并总结了如何给代理制定合适的提示、合理划分子任务、并行调用工具等提示工程经验《How Long Contexts Fail》Drew BreunigDrew Breunig 指出超长上下文并不一定带来更好的代理。相反过长的上下文会引入污染、干扰、混乱和冲突等问题使代理迷失方向作者分析了每种失败模式的案例并指出需要通过剪枝、工具检索、隔离等方法防止上下文失控。Provence高效稳健的上下文剪枝在 RAG 系统中检索内容往往很长。Provence 将上下文剪枝视为序列标注问题通过统一剪枝与重排序模型、在多样化数据上训练实现了在不同领域几乎不损失性能的剪枝方法这为压缩策略提供了更稳健的算法支持。LangGraph 与 LangSmith 的支持LangGraph 是 LangChain 推出的有向图代理框架旨在让开发者完全控制代理的步骤、状态和上下文。它提供了以下功能检查点与长短期记忆支持在代理会话内持久化状态短期记忆和跨会话保存信息长期记忆方便实现 scratchpad 与记忆功能灵活的状态检索在每个节点中开发者可以从状态对象或长期记忆中检索特定字段并通过自定义逻辑决定哪些信息注入到上下文压缩与修剪提供总结与修剪工具可在代理设计中的特定步骤调用 LLM 或剪枝算法对上下文进行精简多代理与沙盒LangGraph 支持构建多代理系统通过设置不同的节点和状态字段实现隔离并可结合沙盒环境保存大型数据对象LangSmith 则提供了强大的追踪和评测功能可查看代理的每一步输入输出、token 使用情况并评估不同上下文工程策略对性能的影响结论与展望上下文工程是构建可靠 AI 代理的核心它决定了代理能否在有限的工作内存中合理利用指令、知识和工具。本文总结出以下要点上下文工程不仅是提示工程的升级更是将动态系统、工具协作和记忆管理结合在一起的综合工程四大策略写入、选择、压缩、隔离是构建代理时常见的手段需要根据任务特性灵活组合多代理架构优缺点并存并行子代理可扩展能力但会增加成本并带来协调困难需配合共享上下文和压缩技术长上下文不是灵丹妙药随着上下文增长污染、干扰、混乱和冲突现象会加剧剪枝和隔离同样重要对于正在建设代理系统的读者可以从以下方面入手观察代理任务流程确定何时需要写入、选择、压缩或隔离上下文通过工具检索、摘要和剪枝算法控制上下文长度警惕多代理带来的协调与成本问题优先确保共享上下文和决策的一致性使用 LangSmith 等工具观察代理行为及时调整上下文工程策略。随着模型能力和工具生态的发展合理的上下文工程将成为 AI 代理迈向生产级应用的关键。希望本文能帮助你更好地理解这一新兴领域并在自己的项目中应用这些思路。如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线互联网企业工作十余年里指导过不少同行后辈。帮助很多人得到了学习和成长。我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限很多互联网行业朋友无法获得正确的资料得到学习提升故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型入门到实战全套学习大礼包1、大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通2、大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。3、AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。4、大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。5、大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。适用人群第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…学习是一个过程只要学习就会有挑战。天道酬勤你越努力就会成为越优秀的自己。如果你能在15天内完成所有的任务那你堪称天才。然而如果你能完成 60-70% 的内容你就已经开始具备成为一名大模型 AI 的正确特征了。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章