从深度研究到超级 Agent 运行时,一个能做"几乎任何事"的开源框架。
写在前面
2026 年 2 月 28 日,DeerFlow 2.0 发布当天就登顶 GitHub Trending 第一名,46000+ stars。
这不是一个普通的 AI Agent 框架。
大多数 Agent 框架只是把 LLM 包装一下,加几个工具调用接口,就说自己是"Agent"。但 DeerFlow 不一样——它是一个完整的超级 Agent 运行时(Super Agent Harness)。
什么意思?
想象一下:你给 Agent 分配一个复杂任务,比如"研究某个技术领域,生成一份深度报告,配上数据可视化图表,最后做成 PPT"。
普通 Agent 会卡在第一步,或者给你一堆半成品。
DeerFlow 会:
- 自动拆解任务,生成执行计划
- 并行启动多个子 Agent,各自负责不同部分
- 在隔离的沙箱环境里执行代码、生成图表
- 把所有结果汇总,生成最终交付物
- 记住整个过程,下次做类似任务更快
这才是真正的"Agent"——不是聊天机器人,是能干活的数字员工。
核心亮点
1. 完整的执行环境:不只是聊天,是真的能干活
大多数 Agent 只能"说",DeerFlow 能"做"。
每个任务运行在独立的 Docker 沙箱里,有完整的文件系统:
/mnt/user-data/
├── uploads/ # 你上传的文件
├── workspace/ # Agent 的工作目录
└── outputs/ # 最终交付物
Agent 可以:
- 读写文件
- 执行 bash 命令
- 运行 Python 代码
- 查看图片
- 生成可视化图表
所有操作都在沙箱里,互相隔离,不会污染宿主机。
这就是 DeerFlow 和聊天机器人的本质区别:它有自己的电脑。
2. 子 Agent 编排:复杂任务自动拆解并行执行
复杂任务很少能一次完成。DeerFlow 的解决方案是:自动拆解 + 并行执行。
主 Agent 可以动态生成子 Agent,每个子 Agent:
- 有独立的上下文和工具
- 并行执行(能并行的就并行)
- 完成后返回结构化结果
- 主 Agent 汇总所有结果
举个例子:
任务:"研究 AI Agent 领域的最新进展,生成深度报告"
DeerFlow 的执行流程:
- 主 Agent 制定计划:需要调研学术论文、开源项目、行业动态
- 并行启动 3 个子 Agent:
- 子 Agent A:搜索 arXiv 最新论文
- 子 Agent B:爬取 GitHub Trending
- 子 Agent C:分析行业报告
- 每个子 Agent 独立工作,互不干扰
- 主 Agent 收集所有结果,生成最终报告
这种架构让 DeerFlow 能处理"需要几分钟到几小时"的长时任务。
3. 技能系统(Skills):可扩展的能力模块
DeerFlow 的"技能"不是简单的函数调用,而是结构化的能力模块。
每个技能是一个 Markdown 文件,定义了:
- 工作流程
- 最佳实践
- 相关资源引用
内置技能:
- 深度研究(research)
- 报告生成(report-generation)
- PPT 制作(slide-creation)
- 网页生成(web-page)
- 图片生成(image-generation)
- 视频生成(video-generation)
技能是按需加载的——只有任务需要时才加载,不会一次性塞满上下文窗口。
更重要的是,你可以:
- 添加自定义技能
- 替换内置技能
- 组合多个技能形成复合工作流
/mnt/skills/public/
├── research/SKILL.md
├── report-generation/SKILL.md
└── slide-creation/SKILL.md
/mnt/skills/custom/
└── your-custom-skill/SKILL.md ← 你的技能
4. 长期记忆:跨会话的持久化知识
大多数 Agent 每次对话结束就失忆了。DeerFlow 会记住。
它会持久化存储:
- 你的个人资料和偏好
- 技术栈和工作流程
- 写作风格和表达习惯
- 历史任务的经验
用得越多,它越懂你。
而且,记忆存储在本地,完全由你控制。
5. 多渠道接入:Telegram、Slack、飞书
DeerFlow 不只是个 Web 应用,还支持通过消息应用直接使用:
- Telegram:Bot API 长轮询,配置最简单
- Slack:Socket Mode,无需公网 IP
- 飞书/Lark:WebSocket 连接
在聊天软件里直接发任务,DeerFlow 自动创建线程并执行。
支持的命令:
/new- 开始新对话/status- 查看当前线程状态/models- 列出可用模型/memory- 查看记忆/help- 帮助信息
技术架构
基于 LangGraph + LangChain
DeerFlow 2.0 是完全重写的版本,基于:
- LangGraph:多 Agent 编排
- LangChain:LLM 交互和工具链
这意味着:
- 成熟稳定的底层框架
- 丰富的生态系统
- 易于扩展和定制
沙箱执行模式
支持三种沙箱模式:
- 本地执行:直接在宿主机运行(开发测试用)
- Docker 执行:隔离的 Docker 容器(推荐)
- Kubernetes 执行:通过 provisioner 服务在 K8s Pod 中运行(生产环境)
MCP 服务器支持
DeerFlow 支持 MCP(Model Context Protocol)服务器扩展能力。
对于 HTTP/SSE 类型的 MCP 服务器,还支持 OAuth token 流程(client_credentials、refresh_token)。
快速开始
1. 克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
2. 生成配置文件
make config
3. 配置模型
编辑 config.yaml,至少配置一个模型:
models:
- name: gpt-4
display_name: GPT-4
use: langchain_openai:ChatOpenAI
model: gpt-4
api_key: $OPENAI_API_KEY
max_tokens: 4096
temperature: 0.7
支持的模型:
- OpenAI(GPT-4、GPT-5)
- Anthropic Claude(通过 Claude Code OAuth)
- OpenRouter(Gemini、Claude 等)
- 字节豆包(Doubao-Seed-2.0-Code)
- DeepSeek v3.2
- Kimi 2.5
4. 设置 API Key
编辑 .env 文件:
OPENAI_API_KEY=your-openai-api-key
TAVILY_API_KEY=your-tavily-api-key
5. 启动服务
Docker 方式(推荐):
make docker-init # 拉取沙箱镜像(首次运行)
make docker-start # 启动服务
本地开发方式:
make check # 检查依赖(Node.js 22+, pnpm, uv, nginx)
make install # 安装依赖
make dev # 启动服务
嵌入式 Python 客户端
DeerFlow 还提供了嵌入式 Python 客户端,不需要启动 HTTP 服务也能使用:
from deerflow.client import DeerFlowClient
client = DeerFlowClient()
# 聊天
response = client.chat("帮我分析这篇论文", thread_id="my-thread")
# 流式输出
for event in client.stream("你好"):
if event.type == "messages-tuple" and event.data.get("type") == "ai":
print(event.data["content"])
# 管理
models = client.list_models()
skills = client.list_skills()
client.upload_files("thread-1", ["./report.pdf"])
非常适合集成到现有的 Python 应用中。
从 v1 到 v2:不是升级,是重写
DeerFlow 2.0 与 v1 没有任何共享代码,是完全从零重写的版本。
v1 是一个深度研究框架(Deep Research),社区把它用到了远超预期的场景——数据管道、PPT 生成、Dashboard 搭建、内容自动化工作流。
这让团队意识到:DeerFlow 不只是一个研究工具,它是一个运行时——一个让 Agent 真正做事的基础设施。
于是有了 v2:从研究框架到超级 Agent 运行时的蜕变。
Claude Code 集成
DeerFlow 还提供了 claude-to-deerflow 技能,可以在 Claude Code 中直接使用 DeerFlow:
npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow
在 Claude Code 里你可以:
- 发送任务给 DeerFlow 并获取流式响应
- 选择执行模式:flash(快速)、standard、pro(规划)、ultra(子 Agent)
- 检查健康状态、列出模型/技能/Agent
- 管理线程和历史
- 上传文件进行分析
写在最后
DeerFlow 代表了 AI Agent 框架的下一个阶段。
第一代 Agent 框架是工具调用——给 LLM 挂几个 API,就叫 Agent。
第二代是编排——多 Agent 协作,任务分解。
DeerFlow 是第三代:完整的执行运行时。它有文件系统,有沙箱,有记忆,有技能系统,有子 Agent 编排,有多渠道接入。
它不只是让 AI"思考",还让 AI"行动"。
对于正在构建 AI 应用的开发者来说,DeerFlow 解决了一个核心问题:从 Demo 到生产的最后一公里。你不需要自己搭建沙箱、自己实现记忆系统、自己编写任务编排逻辑。DeerFlow 全部帮你做好了。
项目地址:github.com/bytedance/d… 官方网站:deerflow.tech Star 数量:46000+ 开源协议:MIT
快速开始:
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
make config && make docker-init && make docker-start
你觉得 DeerFlow 最有价值的特性是什么?是沙箱执行、子 Agent 编排,还是技能系统?欢迎在评论区分享你的想法。