DeerFlow 2.0:字节跳动开源的超级 Agent 编排框架,从入门到上手
2026 年 2 月 28 日,字节跳动开源的 DeerFlow 2.0 发布后直接登顶 GitHub Trending 第 1 名。这个项目到底是什么?它和 LangChain、AutoGPT 有什么区别?本文带你从零了解并跑起来。
什么是 DeerFlow?
DeerFlow(Deep Exploration and Efficient Research Flow)是字节跳动开源的超级 Agent 编排框架(Super Agent Harness)。
简单来说,它把子 Agent、记忆系统、沙箱环境和可扩展的技能系统组织在一起,让 AI Agent 能够完成几乎任何复杂任务——从深度研究、代码编写到内容创作,处理时长从几分钟到几小时不等。
核心亮点:
- 🏆 GitHub Trending 第 1 名(2.0 发布当天)
- 🔄 2.0 是彻底重写,与 1.x 完全不同
- 🧩 四大核心模块:Sub-Agents、Memory、Sandbox、Skills
- 🌐 支持 Telegram、Slack、飞书、企业微信等 IM 平台
- 🔧 支持自定义 Skills、MCP Server、多种 LLM 模型
GitHub 地址: github.com/bytedance/d…
官网: deerflow.tech
核心架构一览
DeerFlow 的架构可以用四个关键词概括:
1. Sub-Agents(子 Agent)
采用分层 Agent 架构:
- Lead Agent:主控 Agent,负责任务分解和协调
- Sub-Agents:专门的子 Agent,处理特定任务(代码生成、数据分析等)
- Claude Code 集成:可以直接调用 Claude Code、Codex、Cursor 等编码 Agent
2. Sandbox(沙箱环境)
三种执行模式:
- 本地执行:直接在宿主机运行(开发测试用)
- Docker 执行:在隔离容器中运行(推荐)
- Kubernetes 执行:通过 Provisioner 在 K8s Pod 中运行(生产环境)
3. Memory(记忆系统)
- 短期记忆:会话上下文管理
- 长期记忆:跨会话的知识积累
- Context Engineering:智能上下文压缩和优化
4. Skills & Tools(技能与工具)
- 内置 Skills:文件操作、网络搜索、代码执行等
- MCP Server 支持:可扩展的工具协议
- InfoQuest 集成:字节自研的智能搜索和爬虫工具集
快速开始
方式一:一句话交给 Coding Agent(最省事)
如果你在用 Claude Code、Cursor、Windsurf 等 AI 编码工具,直接发给它这句话:
如果还没 clone DeerFlow,就先 clone,然后按照 https://raw.githubusercontent.com/bytedance/deer-flow/main/Install.md 把它的本地开发环境初始化好
Agent 会自动完成克隆、配置和初始化,你只需要补充 API Key。
方式二:手动安装(3 步搞定)
第 1 步:克隆仓库
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
第 2 步:运行安装向导
make setup
交互式向导会引导你选择 LLM 提供商、配置搜索引擎、设置执行模式。完成后自动生成 config.yaml 和 .env 文件,整个过程约 2 分钟。
第 3 步:验证配置
make doctor
检查配置是否正确,给出可操作的修复建议。
配置详解
模型配置
编辑 config.yaml,至少定义一个模型:
models:
# OpenAI
- name: gpt-4o
display_name: GPT-4o
use: langchain_openai:ChatOpenAI
model: gpt-4o
api_key: $OPENAI_API_KEY
max_tokens: 4096
temperature: 0.7
# OpenRouter(接入各种模型的统一网关)
- name: openrouter-gemini-2.5-flash
display_name: Gemini 2.5 Flash (OpenRouter)
use: langchain_openai:ChatOpenAI
model: google/gemini-2.5-flash-preview
api_key: $OPENROUTER_API_KEY
base_url: https://openrouter.ai/api/v1
# 本地 vLLM 部署
- name: qwen3-32b-vllm
display_name: Qwen3 32B (vLLM)
use: deerflow.models.vllm_provider:VllmChatModel
model: Qwen/Qwen3-32B
api_key: $VLLM_API_KEY
base_url: http://localhost:8000/v1
supports_thinking: true
API Key 配置
在 .env 文件中设置:
OPENAI_API_KEY=your-openai-api-key
TAVILY_API_KEY=your-tavily-api-key
INFOQUEST_API_KEY=your-infoquest-api-key
推荐模型
字节官方推荐这三个模型运行 DeerFlow:
- Doubao-Seed-2.0-Code(豆包,字节自家的)
- DeepSeek v3.2
- Kimi 2.5
国内开发者可以通过火山引擎 Coding Plan 获取免费额度。
运行 DeerFlow
Docker 模式(推荐)
# 首次运行:拉取 sandbox 镜像
make docker-init
# 启动服务(支持热更新,开发用)
make docker-start
# 生产模式(本地构建镜像)
make up
# 停止服务
make down
本地开发模式
# 检查依赖(需要 Node.js 22+、pnpm、uv、nginx)
make check
# 安装依赖
make install
# 启动服务
make dev
启动后访问:http://localhost:2026
IM 渠道集成
DeerFlow 一个很实用的特性是支持多种 IM 平台,而且不需要公网 IP:
| 渠道 | 传输方式 | 上手难度 |
|---|---|---|
| Telegram | Bot API (long-polling) | 简单 |
| Slack | Socket Mode | 中等 |
| 飞书/Lark | WebSocket | 中等 |
| 企业微信 | WebSocket | 中等 |
以 Telegram 为例,配置非常简单:
# config.yaml
channels:
telegram:
enabled: true
bot_token: $TELEGRAM_BOT_TOKEN
allowed_users: [] # 留空表示允许所有人
# .env
TELEGRAM_BOT_TOKEN=123456789:ABCdefGHIjklMNOpqrSTUvwxYZ
这意味着你可以在手机上通过 Telegram 直接和 DeerFlow 对话,让它帮你做研究、写代码、处理文件。
部署资源建议
| 部署场景 | 起步配置 | 推荐配置 |
|---|---|---|
本地体验 / make dev | 4 vCPU、8 GB RAM、20 GB SSD | 8 vCPU、16 GB RAM |
Docker 开发 / make docker-start | 4 vCPU、8 GB RAM、25 GB SSD | 8 vCPU、16 GB RAM |
长期运行服务 / make up | 8 vCPU、16 GB RAM、40 GB SSD | 16 vCPU、32 GB RAM |
注意:以上不包含本地大模型部署的资源。生产环境推荐 Linux + Docker。
进阶玩法
MCP Server 扩展
DeerFlow 支持 MCP Server 协议,可以接入各种外部工具。对于 HTTP/SSE MCP Server,还支持 OAuth token 流程。
LangSmith / Langfuse 链路追踪
想看 Agent 每一步在干什么?启用链路追踪:
tracing:
langsmith:
enabled: true
api_key: $LANGSMITH_API_KEY
project: deerflow-project
Python Client 嵌入
可以在你自己的 Python 项目中直接调用 DeerFlow:
from deerflow import DeerFlowClient
client = DeerFlowClient(config_path="config.yaml")
response = client.run(
task="帮我分析这个 GitHub 仓库的代码质量",
agent="lead_agent"
)
print(response)
DeerFlow vs 其他 Agent 框架横评
市面上 Agent 框架越来越多,DeerFlow 到底处于什么位置?我把几个主流框架放在一起对比:
对比总览
| 维度 | DeerFlow 2.0 | OpenClaw | LangGraph | CrewAI | AutoGPT |
|---|---|---|---|---|---|
| 定位 | Super Agent Harness | 个人 AI 助手 | Agent 编排底层框架 | Multi-Agent 协作 | 自主 Agent |
| 开发语言 | Python + TypeScript | Node.js (TypeScript) | Python | Python | Python |
| IM 渠道 | 4 个(Telegram/Slack/飞书/企微) | 25+ 个(几乎全覆盖) | 无 | 无 | 无 |
| Sandbox 隔离 | ✅ Docker/K8s | ✅ 沙箱执行 | ❌ 需自建 | ❌ | ❌ |
| 长期记忆 | ✅ 内置 | ✅ 文件系统 + Memory | ✅ 内置 | ❌ 需插件 | ✅ |
| MCP 协议 | ✅ | ✅ | ❌ | ❌ | ❌ |
| 语音交互 | ❌ | ✅ 唤醒词 + TTS | ❌ | ❌ | ❌ |
| Coding Agent 集成 | ✅ Claude Code/Codex | ✅ Claude Code/Codex/Cursor | ❌ | ❌ | ❌ |
| 上手难度 | 中等 | 简单(npm 一键安装) | 较高 | 简单 | 中等 |
| 适合场景 | 研究/编码/自动化任务 | 全天候个人助手 | 自定义 Agent 工作流 | 团队协作任务 | 实验性自主任务 |
详细对比
DeerFlow vs LangGraph
DeerFlow 基于 LangGraph 构建,可以理解为 LangGraph 的"上层应用":
- LangGraph 是底层编排框架,提供图结构、状态管理、持久化等基础能力
- DeerFlow 在此之上封装了 Sandbox、Memory、IM 渠道、Skills 等开箱即用的功能
类比:LangGraph 是 Express.js,DeerFlow 是 Next.js。
DeerFlow vs OpenClaw
这两个项目定位不同但有交集:
- OpenClaw 更像一个"个人 AI 管家"——跑在你自己的设备上,连接你所有的聊天渠道(WhatsApp、Telegram、微信、QQ 等 25+ 个),支持语音唤醒、Live Canvas、多 Agent 路由。它的核心价值是随时随地可用的个人助手。
- DeerFlow 更像一个"AI 工作站"——专注于复杂任务的执行,强调 Sandbox 隔离、Sub-Agent 编排、深度研究能力。它的核心价值是完成高难度的长时间任务。
简单说:OpenClaw 是你的日常助手,DeerFlow 是你的专项工具。
如果你想要一个 7×24 小时在线、能在手机上随时聊天的 AI 助手,OpenClaw 更合适。如果你需要让 AI 花几个小时帮你做深度研究或写一个完整项目,DeerFlow 更对口。
DeerFlow vs CrewAI
- CrewAI 强调"角色扮演"式的多 Agent 协作(给每个 Agent 分配角色和目标)
- DeerFlow 更工程化,有真正的 Sandbox 隔离和代码执行环境
CrewAI 适合快速原型,DeerFlow 适合生产环境。
DeerFlow vs AutoGPT
- AutoGPT 是"放飞自我"式的自主 Agent,给个目标就让它自己跑
- DeerFlow 更可控,有明确的任务分解和执行流程
AutoGPT 适合实验和探索,DeerFlow 适合需要可靠输出的场景。
选型建议
- 想要个人 AI 助手,随时聊天 → OpenClaw
- 想做深度研究、复杂编码任务 → DeerFlow
- 想从零构建自定义 Agent 工作流 → LangGraph
- 想快速搭建多 Agent 协作原型 → CrewAI
- 想实验自主 Agent 的极限 → AutoGPT
安全注意事项
⚠️ 几个重要提醒:
- 不要在生产环境直接暴露 DeerFlow 服务
- 使用 Sandbox 模式隔离代码执行
- 配置
allowed_users白名单(IM 渠道) - 定期更新依赖和镜像
总结
DeerFlow 从最初的 Deep Research(深度研究框架)演变为通用的 Super Agent Harness,能够处理研究、编码、创作、自动化等各种任务。
如果你对 Multi-Agent 系统感兴趣,或者想给自己搭一个私有化的 AI 助手,DeerFlow 值得一试。
相关链接:
常见问题
Q: 可以用国内大模型吗?
可以。推荐豆包(Doubao)、DeepSeek、Kimi,配置方式与 OpenAI 兼容。
Q: 支持完全本地部署吗?
支持。可以用 vLLM、Ollama 等本地推理服务,无需云端 API。
Q: 如何自定义 Skills?
参考 backend/deerflow/skills/ 目录下的示例,创建 Skill 类并在 config.yaml 中注册。
Q: Windows 能跑吗?
可以,但需要用 Git Bash 运行。不支持原生 cmd.exe 或 PowerShell。推荐 WSL2 或直接用 Linux/macOS。