深度解析三大 Agent 上下文工程:Claude Code、OpenClaw、Hermes 的设计哲学
在Harness之前更底层的则是上下文工程很多时候模型的幻觉、失忆是因为上下文窗口乱了如果我们把所有的事情“平权”的放在上下文里就像大海捞针模型会很难找到自己想要的东西。那我们要怎么设计AI产品的上下文呢Claude Code 把上下文做成了渐进式调度OpenClaw 则做成了开放性的生态而 Hermes 则更强调带交接语义的上下文压缩与回忆。通过理解这三个Agent的上下文机制能够给予我们Agent设计的启发。上下文工程是什么提示词工程决定了AI怎么运行而上下文工程决定模型每一轮对话中能看见的内容它能够帮助我们提升AI对任务的理解、指令的遵循程度、任务的执行表现。而提示词工程其实是上下文的一部分模型在真正运作的时候会看见持久的记忆Openclew的Soul模型的记忆Memory 全局的规则CLAUDE.md、AGENTS.md 系统提示词System PromptAI的工作说明 用户提示词User Prompt用户的输入以及我们帮助用户注入的变量。 MCP、Function等工具的描述信息 工具调用返回的结果 近x轮的对话历史 压缩后的摘要……所有这些东西每一轮模型推理时怎么组合、怎么裁剪、什么时候出现、什么时候消失其实都在上下文工程的范畴。Contextrefers to the set of tokens included when sampling from a large-language model (LLM). Theengineeringproblem at hand is optimizing the utility of those tokens against the inherent constraints of LLMs in order to consistently achieve a desired outcome. Effectively wrangling LLMs often requiresthinking in context— in other words: considering the holistic state available to the LLM at any given time and what potential behaviors that state might yield.Effective context engineering for AI agentsAnthropic 的官方博客给上下文的定义是通过持续优化上下文来保障大模型在固有约束下持续地实现预期效果。我们需要在不断演变的信息中筛选出有价值的信息将其放入有限的上下文窗口。而LangChain 也提供了一个四维框架Write把信息分门别类记录例如记忆、状态写到窗口外面Select按需选择信息包括工具、记忆、知识库Compress总结、裁剪上下文保留高价值的信息Isolate隔离上下文不同agent使用不同的内容那上下文到底在解决什么问题呢模型的窗口有上限文件读取、工具输出、推理过程、输出结果会迅速累积不仅很快会触发上限也会因为大量的噪音影响到模型的推理。随着上下文变长会变笨随着上下文变长模型的表现会变差内容越多注意力就会变差就像我们也很难从800字里迅速的找到某句话。上下文越长会越贵、速度越慢过多默认注入的内容不仅会抬高 token 成本也会让模型响应更慢而且重复发送大段上下文本身就是一笔持续成本。新会话信息丢失在不同的窗口其实模型是不会主动记住上次发生了什么除非是我们要求它记住。工具噪音日志、文件内容、搜索结果会吞掉真正重要的推理空间。如果说我们的AI容易失忆、跑偏、又或者一本正经的胡说八道背后往往是上下文工程做得不好。Claude Code渐进式上下文压缩第一个部分是不怎么变化的内容系统提示词、CLAUDE.md以及自动记忆。系统提示词约束了Claude Agent的表现它不会出现在我们的对话框里。而CLAUDE.md是指令、规则它会在启动时自动加载它为 Agent 提供了长期的行为约束和项目知识。官方的Explore the context window可以看到整个过程在你输入任何事情之前会开始阅读环境数据、可以用的工具、Skills项目级的CLAUDE.md这些其实已经提前占用了你的上下文窗口。如果发现刚开始说几句话就上下文窗口超了有可能是你的MCP、Skill装太多了。另一个部分是输入后的内容在我们输入指令后Claude会进行一系列复杂的过程阅读你的项目文件、思考怎么解决这个问题、开始执行修改代码…直到最后才给我们一个总结。但这些所有的过程都会占据我们的上下文窗口。那官方是怎么解决这个问题的呢从第三方对泄露代码的逆向分析来看Claude Code 采用了一套可被概括为 5 层的压缩思路。按第三方逆向整理Claude Code 不是一上来就总结全部历史而是先处理高噪音的工具结果再做历史裁剪以及带缓存感知的轻量压缩。再往后才会进入更重的上下文折叠或自动压缩。前者更像把全文换成摘要继续工作后者则意味着对旧上下文做更激进的取舍。最重要的是Claude Code在压缩后自动恢复最近5个读取的文件激活的skills它避免了重新读取刚刚编辑得到文件不用重新激活skills。这也是Claude Code没有那么容易失忆、动作不容易变形的原因。OpenClaw极度开放的上下文框架OpenClaw 和Claude Code的初始区别是上下文占用的文件列表相较于Claude Code更多会包括Soul、Identity、User等等而这些可能在Claude Code里只是系统提示词、CLAUDE.md还有记忆。而随着龙虾对我们的理解变深这些内容也会变长和变多这也是为什么我们经常性的超限了。。。而在裁剪、压缩机制上面是相似的它也会丢弃旧的工具输出结果。但Openclaw的会话重置没有像 Claude Code 那样更强调工作集恢复。而比较有意思的是Openclaw的context-engine插件。它是OpenClaw 里的一个可替换组件负责决定每次调用模型时把哪些历史消息塞进上下文窗口以及窗口满了怎么压缩。默认用的是内置的 legacy 引擎但你可以写一个插件替换它实现自己的上下文管理策略。你可以自己选择什么信息要存储、什么时候压缩以及上下文要按照什么结构梳理还可以调整需要构建的上下文。再配合内置的 /context list、/context detail 和 usage 视图我们就能看到到底注入了什么、每一项大概占了多少成本。果说 Claude Code 像一套调优精细的内建策略OpenClaw 更像一个把上下文生命周期开放出来的平台。但框架的开放性、扩展性不等于开箱即用的可靠性每个人的风格不同如果我们没有主动配置和调优上下文策略Agent 的表现可能不如预期。Hermes把交接当成常态和 OpenClaw、Claude Code 不太一样的是Hermes 明确采用了双层压缩。Gateway 层设了 85% 的高阈值更像是一个兜底机制在上下文瞬间膨胀过大时介入处理。而 Agent 层则是 50% 的阈值只要超过 50% 就主动压缩尽早处理上下文换取后续步骤的稳定性。但最重要的地方在于它会生成结构化的摘要它把压缩的摘要当成了交接文件。每一次压缩都明确说明了目标是什么完成进度怎么样核心的决策是什么阅读、修改创建的相关文件下一步又要做什么这是 Hermes 设计品味最集中的表现它不是宽泛的总结一下之前做了什么下一个窗口AI可以基于交接文档快速的接收工作。它还支持增量更新多次压缩后不会从零重新总结而是在上一次的摘要上追加更新。信息在多次压缩中是递进保持的而不是每压缩一次丢掉一些信息。给我们做 Agent 的 5 条设计启发1. 上下文分层区分短期会话和长期记忆不要把上下分当垃圾桶什么都往里塞的结果是既记不住重要的事又被大量无关信息拖慢。至少应该拆成4层1长时记忆跨会话保持的东西2稳定不变的规则包括系统提示词、CLAUDE.md3当前使用的技能、工具、文件4当前的任务进展2. 能删就删不要做没必要的压缩例如无意义的你好、再见例如不需要关心过程的工具输出结果不需要花成本让模型去总结。3. 缓存的稳定性是一等公民system prompt、记忆快照、工具描述不要频繁变更稳定才能省钱、才能高效才能保护稳定性。这一点可能是我最近意识到我以前的误区我原本以为当我们拥有了无数优化算力调度的机制Token会更便宜但无论国内外大厂都在涨价产品同学可能要更早的具备成本意识。4. 压缩结果写成交接文档不是总结Hermes 的结构化交接模板告诉我们压缩不是泛泛而谈而是给下一轮模型准备一份可继续执行的交接清单。5. 压缩后要记得恢复至少要补充回当前工作集比如关键文件、已激活的技能和当前任务状态否则 Agent 压缩完很容易重新读一遍刚刚做过的事。模型的编程能力溢出于是我们有了Cursor。而Openclaw微信或者飞书又进一步把使用门槛拉低Hermes把上下文从压缩变成交接也更早的压缩避免模型不稳定再叠加上自我进化的机制。于是Hermes的Star又迅速的提升大量Openclaw的用户切换到了Hermes。但Hermes的交接机制其实类似HANDOFF而自我进化的skill在Openclaw之前就已经出现过。AI时代不仅止于技术创新还在于把技术上的创新点以一个用户可感知的方式展示了出来。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】