LangChain对话Manus创始人:首次揭秘顶级AI智能体的上下文工程“满分实践”
LangChain对话Manus创始人:首次揭秘顶级AI智能体的上下文工程“满分实践”
一句话总结:
当AI智能体越用越慢、开始“失忆”,不是模型不行,而是它的“记忆”乱了。
本文揭秘LangChain与Manus两位顶尖团队如何用五大策略,驯服失控的上下文,让智能体始终保持清醒、高效、精准。
👉 欢迎关注我的开源项目
🎬 运行效果预览
📌 如果您这个项目感兴趣,欢迎「付费点赞」支持一下!
👉 下方点击「喜欢作者」,金额随心,心意无价。 让我们在技术路上彼此赋能,少走弯路,高效落地!
付费后,请务必添加我的微信(微信号:weber812)并发送支付凭证,我将第一时间拉您进入专属「技术支持群」。
进群后您能获得哪些福利?👉 获取完整代码具体请见下方说明!
一、警报拉响:你的AI正在“失忆”
你有没有遇到这种情况?
- 智能体一开始思路清晰,但跑着跑着就开始重复、啰嗦、胡言乱语;
- 调用几次工具后,它突然忘了自己要干什么;
- 明明给了正确信息,它却视而不见。
这不是模型“变笨”了,而是它被自己的“记忆”压垮了——这就是当前AI智能体面临的最大隐患:上下文腐烂(Context Rot)。
🚨 什么是上下文腐烂?
简单说:智能体记得太多,反而不会思考了。
每次调用工具、生成思考、接收反馈,这些内容都会不断追加到它的“聊天记录”里。一个任务跑几十上百步,上下文动辄几十万Token,模型的注意力被稀释,关键信息被淹没,最终导致性能断崖式下降。
Anthropic的研究显示,当上下文超过200k Token时,模型就开始出现明显退化。
而Manus的实际数据显示,一个典型任务平均需要50次工具调用——这还只是中等复杂度任务。
这就形成了一个死循环:
智能体越聪明,做的事越多 → 上下文越长 → 模型越卡 → 行为越蠢
怎么破?答案就是:上下文工程(Context Engineering)。
二、上下文工程:给AI做“记忆力管理”
如果说“提示工程”是教AI怎么说话,那“上下文工程”就是教它怎么记住重要的事,忘记无关的噪音。
它不是单一技术,而是一套系统方法论。
LangChain和Manus总结出了五大核心策略,堪称当前最实用的“满分作业”。
✅ 策略1:卸载 —— 把记忆存进“外接硬盘”
不是所有信息都得留在脑子里。
该存文件就存文件,别塞在上下文里。
比如:
- 网页搜索结果太长?存成
search_result.html,只留一句“已保存搜索结果至文件”。 - 读取大文件?保留路径
/data/report.txt,内容不放上下文。
需要时再通过路径读取,既节省Token,又保证信息不丢。
🔍 实战建议:把文件系统当成你的“外接硬盘”,随时存取,轻装上阵。
✅ 策略2:缩减 —— 压缩 vs 总结,别搞混了!
很多人一上来就“总结”,结果丢了关键细节。
Manus的做法更聪明:先压缩,再总结。
🔹 压缩(可逆):删掉能重建的信息
- 文件写入后,删掉内容,只留路径;
- 工具调用成功,删掉冗余日志,只留状态。
这些信息随时可以“恢复”,相当于无损压缩。
🔹 总结(不可逆):最后手段,慎用!
只有当上下文快撑爆时才用。
而且Manus有个狠招:先完整存档,再总结,确保万不得已还能翻旧账。
💡 关键洞察:
“你永远不知道哪一步操作会在十步后突然变得重要。”
所以,能不丢就不丢,能可逆就不不可逆。
✅ 策略3:检索 —— 需要时才“唤醒”记忆
与其让AI背下所有历史,不如让它“按需查询”。
Manus的做法很务实:
- 不搞复杂的向量数据库;
- 直接用
grep、glob在沙盒文件系统里搜; - 用户明确说“记住这个”,才存入长期记忆。
简单、高效、可控。
📌 类比:就像你不需要记住所有微信聊天记录,但可以用关键词搜出来。
✅ 策略4:隔离 —— 多智能体,各管一摊
复杂任务怎么办?拆!
用多个子Agent分工协作,每个只负责一块,上下文互不干扰。
Manus借鉴Go语言哲学:
“不要通过共享内存来通信,而要通过通信来共享内存。”
具体分两种模式:
| 模式 | 适用场景 | 特点 |
|---|---|---|
| 通信模式 | 任务简单,只关心结果 | 主Agent发指令,子Agent轻装上阵 |
| 共享模式 | 任务复杂,依赖中间过程 | 子Agent能看到完整上下文,但成本高 |
⚠️ 提醒:共享上下文会预加载大量数据,浪费Token,非必要不用。
✅ 策略5:缓存 —— 别让AI重复“烧脑”
有些计算很耗资源,比如解析大文件、执行复杂脚本。
如果结果没变,就别每次都重来。
Manus会缓存高频操作的结果,下次直接调用,省时省力。
🧠 类比:你查过一次“北京到上海多少公里”,下次还会再算一遍吗?
三、Manus的杀手锏:分层动作空间
除了上下文管理,Manus还有一个颠覆性设计:分层动作空间。
传统做法是把所有工具都注册成“函数调用”,结果越堆越多,模型容易混淆。
Manus把它分成三层,清晰有序:
🏗️ 第一层:原子操作(函数调用)
- 读写文件、执行命令、获取时间等基础操作。
- 数量少,边界清,模型不容易搞混。
🧪 第二层:沙箱工具(命令行)
- 在独立沙盒中运行CLI工具,比如:
ffmpeg转视频格式sox处理音频- 自定义MCP工具
- 输出可以直接写文件,不塞上下文。
📦 第三层:代码包与API
- 写Python脚本调用外部库或API;
- 适合大数据分析、金融计算等重任务;
- 数据处理在沙盒内完成,只返回结果。
🔑 核心思想:
从模型角度看,所有操作最终都是“函数调用”。
比如“运行shell命令”是一个函数,“读文件”也是一个函数。
这样既保持接口简洁,又避免上下文爆炸。
四、最重要的经验:别过度工程,相信模型
最后,Peak分享了一个反直觉但极其重要的观点:
我们最大的进步,不是加了什么牛逼功能,而是删了很多东西。
回顾Manus的发展,每一次简化架构,系统反而变得更快、更稳、更聪明。
他们发现:
- 很多中间层、抽象层其实没必要;
- 模型本身的能力在快速进化;
- 越复杂的工程,越容易出问题。
✅ 正确姿势:
少做加法,多做减法;少折腾,多信任。
上下文工程的目标,不是让模型适应复杂的系统,而是让系统适应模型的天然能力。
五、给开发者的实战建议
- 别急着微调:先用通用大模型 + 上下文工程,性价比更高。
- 优先压缩,慎用总结:能可逆就不不可逆。
- 善用文件系统:它是你最好的“外挂存储”。
- 结构化输出:让AI填表单,比自由发挥更可靠。
- 定期重构:每隔一两个月回头看,能不能更简单?
- 评估阈值:实测你的模型在多少Token开始“腐烂”,作为触发机制。
结语:让AI记住该记的,忘记该忘的
真正的智能,不在于记住一切,而在于知道什么值得记住。
上下文工程的本质,是帮AI建立一种“健康的记忆习惯”——
该存的存,该删的删,该查的查,该分的分。
不必追求完美架构,也不必迷信最新技术。
从简单的卸载和压缩开始,逐步迭代,信任模型,回归本质。
这才是通往强大AI智能体的真正捷径。
📚 项目简介
项目地址: github.com/apconw/sani…
🌈 项目亮点
- ✅ 集成 MCP 多智能体架构
- ✅ 支持 Dify / LangChain / LlamaIndex / Ollama / vLLM / Neo4j
- ✅ 前端采用 Vue3 + TypeScript + Vite5,现代化交互体验
- ✅ 内置 ECharts / AntV 图表问答 + CSV 表格问答
- ✅ 支持对接主流 RAG 系统 与 Text2SQL 引擎
- ✅ 轻量级 Sanic 后端,适合快速部署与二次开发
- ✅ 项目已被蚂蚁官方推荐收录
AntV
运行效果:
数据问答
在群里,您将获得以下专属支持:
✅ 定期技术答疑会议:每周固定时间开展群内答疑,集中解决大家在部署、配置中遇到的共性问题
✅ 典型问题远程演示:针对高频难点,我会通过屏幕共享等方式进行实操讲解,看得懂、学得会
✅ 二次开发思路分享:在会议中开放讨论,提供实现路径、代码结构建议与关键点提醒
✅ 项目更新与优化同步:第一时间在群内发布文章内容的迭代、Bug修复与新功能进展
📌 我们不搞“私聊轰炸”,而是用更高效的方式——通过集中答疑 + 资料共享 + 社群互助,让每一位成员都能参与、收获、成长。