LangChain对话Manus创始人:首次揭秘顶级AI智能体的上下文工程“满分实践”

164 阅读8分钟

LangChain对话Manus创始人:首次揭秘顶级AI智能体的上下文工程“满分实践”

LangChain对话Manus创始人:首次揭秘顶级AI智能体的上下文工程“满分实践”

一句话总结
当AI智能体越用越慢、开始“失忆”,不是模型不行,而是它的“记忆”乱了。
本文揭秘LangChain与Manus两位顶尖团队如何用五大策略,驯服失控的上下文,让智能体始终保持清醒、高效、精准。


👉 欢迎关注我的开源项目

🎬 运行效果预览

📌 如果您这个项目感兴趣,欢迎「付费点赞」支持一下!

👉 下方点击「喜欢作者」,金额随心心意无价。  让我们在技术路上彼此赋能,少走弯路,高效落地!

付费后,请务必添加我的微信(微信号:weber812)并发送支付凭证,我将第一时间拉您进入专属「技术支持群」。

进群后您能获得哪些福利👉 获取完整代码具体请见下方说明!


一、警报拉响:你的AI正在“失忆”

你有没有遇到这种情况?

  • 智能体一开始思路清晰,但跑着跑着就开始重复、啰嗦、胡言乱语;
  • 调用几次工具后,它突然忘了自己要干什么;
  • 明明给了正确信息,它却视而不见。

这不是模型“变笨”了,而是它被自己的“记忆”压垮了——这就是当前AI智能体面临的最大隐患:上下文腐烂(Context Rot)

🚨 什么是上下文腐烂?

简单说:智能体记得太多,反而不会思考了

每次调用工具、生成思考、接收反馈,这些内容都会不断追加到它的“聊天记录”里。一个任务跑几十上百步,上下文动辄几十万Token,模型的注意力被稀释,关键信息被淹没,最终导致性能断崖式下降。

Anthropic的研究显示,当上下文超过200k Token时,模型就开始出现明显退化。
而Manus的实际数据显示,一个典型任务平均需要50次工具调用——这还只是中等复杂度任务。

这就形成了一个死循环:

智能体越聪明,做的事越多 → 上下文越长 → 模型越卡 → 行为越蠢

怎么破?答案就是:上下文工程(Context Engineering)


二、上下文工程:给AI做“记忆力管理”

如果说“提示工程”是教AI怎么说话,那“上下文工程”就是教它怎么记住重要的事,忘记无关的噪音

它不是单一技术,而是一套系统方法论。
LangChain和Manus总结出了五大核心策略,堪称当前最实用的“满分作业”。


✅ 策略1:卸载 —— 把记忆存进“外接硬盘”

不是所有信息都得留在脑子里。
该存文件就存文件,别塞在上下文里

比如:

  • 网页搜索结果太长?存成search_result.html,只留一句“已保存搜索结果至文件”。
  • 读取大文件?保留路径/data/report.txt,内容不放上下文。

需要时再通过路径读取,既节省Token,又保证信息不丢。

🔍 实战建议:把文件系统当成你的“外接硬盘”,随时存取,轻装上阵。


✅ 策略2:缩减 —— 压缩 vs 总结,别搞混了!

很多人一上来就“总结”,结果丢了关键细节。
Manus的做法更聪明:先压缩,再总结。

🔹 压缩(可逆):删掉能重建的信息
  • 文件写入后,删掉内容,只留路径;
  • 工具调用成功,删掉冗余日志,只留状态。

这些信息随时可以“恢复”,相当于无损压缩。

🔹 总结(不可逆):最后手段,慎用!

只有当上下文快撑爆时才用。
而且Manus有个狠招:先完整存档,再总结,确保万不得已还能翻旧账。

💡 关键洞察:
“你永远不知道哪一步操作会在十步后突然变得重要。”
所以,能不丢就不丢,能可逆就不不可逆


✅ 策略3:检索 —— 需要时才“唤醒”记忆

与其让AI背下所有历史,不如让它“按需查询”。

Manus的做法很务实:

  • 不搞复杂的向量数据库;
  • 直接用grepglob在沙盒文件系统里搜;
  • 用户明确说“记住这个”,才存入长期记忆。

简单、高效、可控。

📌 类比:就像你不需要记住所有微信聊天记录,但可以用关键词搜出来。


✅ 策略4:隔离 —— 多智能体,各管一摊

复杂任务怎么办?拆!
用多个子Agent分工协作,每个只负责一块,上下文互不干扰。

Manus借鉴Go语言哲学:

“不要通过共享内存来通信,而要通过通信来共享内存。”

具体分两种模式:

模式适用场景特点
通信模式任务简单,只关心结果主Agent发指令,子Agent轻装上阵
共享模式任务复杂,依赖中间过程子Agent能看到完整上下文,但成本高

⚠️ 提醒:共享上下文会预加载大量数据,浪费Token,非必要不用。


✅ 策略5:缓存 —— 别让AI重复“烧脑”

有些计算很耗资源,比如解析大文件、执行复杂脚本。
如果结果没变,就别每次都重来。

Manus会缓存高频操作的结果,下次直接调用,省时省力。

🧠 类比:你查过一次“北京到上海多少公里”,下次还会再算一遍吗?


三、Manus的杀手锏:分层动作空间

除了上下文管理,Manus还有一个颠覆性设计:分层动作空间

传统做法是把所有工具都注册成“函数调用”,结果越堆越多,模型容易混淆。

Manus把它分成三层,清晰有序:

🏗️ 第一层:原子操作(函数调用)

  • 读写文件、执行命令、获取时间等基础操作。
  • 数量少,边界清,模型不容易搞混。

🧪 第二层:沙箱工具(命令行)

  • 在独立沙盒中运行CLI工具,比如:
  • ffmpeg 转视频格式
  • sox 处理音频
  • 自定义MCP工具
  • 输出可以直接写文件,不塞上下文。

📦 第三层:代码包与API

  • 写Python脚本调用外部库或API;
  • 适合大数据分析、金融计算等重任务;
  • 数据处理在沙盒内完成,只返回结果。

🔑 核心思想:
从模型角度看,所有操作最终都是“函数调用”
比如“运行shell命令”是一个函数,“读文件”也是一个函数。
这样既保持接口简洁,又避免上下文爆炸。


四、最重要的经验:别过度工程,相信模型

最后,Peak分享了一个反直觉但极其重要的观点:

我们最大的进步,不是加了什么牛逼功能,而是删了很多东西。

回顾Manus的发展,每一次简化架构,系统反而变得更快、更稳、更聪明。

他们发现:

  • 很多中间层、抽象层其实没必要;
  • 模型本身的能力在快速进化;
  • 越复杂的工程,越容易出问题。

✅ 正确姿势:
少做加法,多做减法;少折腾,多信任。

上下文工程的目标,不是让模型适应复杂的系统,而是让系统适应模型的天然能力。


五、给开发者的实战建议

  1. 别急着微调:先用通用大模型 + 上下文工程,性价比更高。
  2. 优先压缩,慎用总结:能可逆就不不可逆。
  3. 善用文件系统:它是你最好的“外挂存储”。
  4. 结构化输出:让AI填表单,比自由发挥更可靠。
  5. 定期重构:每隔一两个月回头看,能不能更简单?
  6. 评估阈值:实测你的模型在多少Token开始“腐烂”,作为触发机制。

结语:让AI记住该记的,忘记该忘的

真正的智能,不在于记住一切,而在于知道什么值得记住。

上下文工程的本质,是帮AI建立一种“健康的记忆习惯”——
该存的存,该删的删,该查的查,该分的分

不必追求完美架构,也不必迷信最新技术。
从简单的卸载和压缩开始,逐步迭代,信任模型,回归本质。

这才是通往强大AI智能体的真正捷径。

📚 项目简介

项目地址: github.com/apconw/sani…

🌈 项目亮点

  • ✅ 集成 MCP 多智能体架构
  • ✅ 支持 Dify / LangChain / LlamaIndex / Ollama / vLLM / Neo4j
  • ✅ 前端采用 Vue3 + TypeScript + Vite5,现代化交互体验
  • ✅ 内置 ECharts / AntV 图表问答 + CSV 表格问答
  • ✅ 支持对接主流 RAG 系统 与 Text2SQL 引擎
  • ✅ 轻量级 Sanic 后端,适合快速部署与二次开发
  • ✅ 项目已被蚂蚁官方推荐收录

AntV

运行效果:

数据问答


在群里,您将获得以下专属支持:

✅ 定期技术答疑会议:每周固定时间开展群内答疑,集中解决大家在部署、配置中遇到的共性问题
✅ 典型问题远程演示:针对高频难点,我会通过屏幕共享等方式进行实操讲解,看得懂、学得会
✅ 二次开发思路分享:在会议中开放讨论,提供实现路径、代码结构建议与关键点提醒
✅ 项目更新与优化同步:第一时间在群内发布文章内容的迭代、Bug修复与新功能进展

📌 我们不搞“私聊轰炸”,而是用更高效的方式——通过集中答疑 + 资料共享 + 社群互助,让每一位成员都能参与、收获、成长。