DeerFlow 2.0:字节跳动开源的超级 Agent 编排框架,从入门到上手

3 阅读7分钟

DeerFlow 2.0:字节跳动开源的超级 Agent 编排框架,从入门到上手

2026 年 2 月 28 日,字节跳动开源的 DeerFlow 2.0 发布后直接登顶 GitHub Trending 第 1 名。这个项目到底是什么?它和 LangChain、AutoGPT 有什么区别?本文带你从零了解并跑起来。

什么是 DeerFlow?

DeerFlow(Deep Exploration and Efficient Research Flow)是字节跳动开源的超级 Agent 编排框架(Super Agent Harness)。

简单来说,它把子 Agent、记忆系统、沙箱环境和可扩展的技能系统组织在一起,让 AI Agent 能够完成几乎任何复杂任务——从深度研究、代码编写到内容创作,处理时长从几分钟到几小时不等。

核心亮点:

  • 🏆 GitHub Trending 第 1 名(2.0 发布当天)
  • 🔄 2.0 是彻底重写,与 1.x 完全不同
  • 🧩 四大核心模块:Sub-Agents、Memory、Sandbox、Skills
  • 🌐 支持 Telegram、Slack、飞书、企业微信等 IM 平台
  • 🔧 支持自定义 Skills、MCP Server、多种 LLM 模型

GitHub 地址: github.com/bytedance/d…

官网: deerflow.tech

核心架构一览

DeerFlow 的架构可以用四个关键词概括:

1. Sub-Agents(子 Agent)

采用分层 Agent 架构:

  • Lead Agent:主控 Agent,负责任务分解和协调
  • Sub-Agents:专门的子 Agent,处理特定任务(代码生成、数据分析等)
  • Claude Code 集成:可以直接调用 Claude Code、Codex、Cursor 等编码 Agent

2. Sandbox(沙箱环境)

三种执行模式:

  • 本地执行:直接在宿主机运行(开发测试用)
  • Docker 执行:在隔离容器中运行(推荐)
  • Kubernetes 执行:通过 Provisioner 在 K8s Pod 中运行(生产环境)

3. Memory(记忆系统)

  • 短期记忆:会话上下文管理
  • 长期记忆:跨会话的知识积累
  • Context Engineering:智能上下文压缩和优化

4. Skills & Tools(技能与工具)

  • 内置 Skills:文件操作、网络搜索、代码执行等
  • MCP Server 支持:可扩展的工具协议
  • InfoQuest 集成:字节自研的智能搜索和爬虫工具集

快速开始

方式一:一句话交给 Coding Agent(最省事)

如果你在用 Claude Code、Cursor、Windsurf 等 AI 编码工具,直接发给它这句话:

如果还没 clone DeerFlow,就先 clone,然后按照 https://raw.githubusercontent.com/bytedance/deer-flow/main/Install.md 把它的本地开发环境初始化好

Agent 会自动完成克隆、配置和初始化,你只需要补充 API Key。

方式二:手动安装(3 步搞定)

第 1 步:克隆仓库

git clone https://github.com/bytedance/deer-flow.git
cd deer-flow

第 2 步:运行安装向导

make setup

交互式向导会引导你选择 LLM 提供商、配置搜索引擎、设置执行模式。完成后自动生成 config.yaml.env 文件,整个过程约 2 分钟。

第 3 步:验证配置

make doctor

检查配置是否正确,给出可操作的修复建议。

配置详解

模型配置

编辑 config.yaml,至少定义一个模型:

models:
  # OpenAI
  - name: gpt-4o
    display_name: GPT-4o
    use: langchain_openai:ChatOpenAI
    model: gpt-4o
    api_key: $OPENAI_API_KEY
    max_tokens: 4096
    temperature: 0.7

  # OpenRouter(接入各种模型的统一网关)
  - name: openrouter-gemini-2.5-flash
    display_name: Gemini 2.5 Flash (OpenRouter)
    use: langchain_openai:ChatOpenAI
    model: google/gemini-2.5-flash-preview
    api_key: $OPENROUTER_API_KEY
    base_url: https://openrouter.ai/api/v1

  # 本地 vLLM 部署
  - name: qwen3-32b-vllm
    display_name: Qwen3 32B (vLLM)
    use: deerflow.models.vllm_provider:VllmChatModel
    model: Qwen/Qwen3-32B
    api_key: $VLLM_API_KEY
    base_url: http://localhost:8000/v1
    supports_thinking: true

API Key 配置

.env 文件中设置:

OPENAI_API_KEY=your-openai-api-key
TAVILY_API_KEY=your-tavily-api-key
INFOQUEST_API_KEY=your-infoquest-api-key

推荐模型

字节官方推荐这三个模型运行 DeerFlow:

  • Doubao-Seed-2.0-Code(豆包,字节自家的)
  • DeepSeek v3.2
  • Kimi 2.5

国内开发者可以通过火山引擎 Coding Plan 获取免费额度。

运行 DeerFlow

Docker 模式(推荐)

# 首次运行:拉取 sandbox 镜像
make docker-init

# 启动服务(支持热更新,开发用)
make docker-start

# 生产模式(本地构建镜像)
make up

# 停止服务
make down

本地开发模式

# 检查依赖(需要 Node.js 22+、pnpm、uv、nginx)
make check

# 安装依赖
make install

# 启动服务
make dev

启动后访问:http://localhost:2026

IM 渠道集成

DeerFlow 一个很实用的特性是支持多种 IM 平台,而且不需要公网 IP

渠道传输方式上手难度
TelegramBot API (long-polling)简单
SlackSocket Mode中等
飞书/LarkWebSocket中等
企业微信WebSocket中等

以 Telegram 为例,配置非常简单:

# config.yaml
channels:
  telegram:
    enabled: true
    bot_token: $TELEGRAM_BOT_TOKEN
    allowed_users: []  # 留空表示允许所有人
# .env
TELEGRAM_BOT_TOKEN=123456789:ABCdefGHIjklMNOpqrSTUvwxYZ

这意味着你可以在手机上通过 Telegram 直接和 DeerFlow 对话,让它帮你做研究、写代码、处理文件。

部署资源建议

部署场景起步配置推荐配置
本地体验 / make dev4 vCPU、8 GB RAM、20 GB SSD8 vCPU、16 GB RAM
Docker 开发 / make docker-start4 vCPU、8 GB RAM、25 GB SSD8 vCPU、16 GB RAM
长期运行服务 / make up8 vCPU、16 GB RAM、40 GB SSD16 vCPU、32 GB RAM

注意:以上不包含本地大模型部署的资源。生产环境推荐 Linux + Docker。

进阶玩法

MCP Server 扩展

DeerFlow 支持 MCP Server 协议,可以接入各种外部工具。对于 HTTP/SSE MCP Server,还支持 OAuth token 流程。

LangSmith / Langfuse 链路追踪

想看 Agent 每一步在干什么?启用链路追踪:

tracing:
  langsmith:
    enabled: true
    api_key: $LANGSMITH_API_KEY
    project: deerflow-project

Python Client 嵌入

可以在你自己的 Python 项目中直接调用 DeerFlow:

from deerflow import DeerFlowClient

client = DeerFlowClient(config_path="config.yaml")
response = client.run(
    task="帮我分析这个 GitHub 仓库的代码质量",
    agent="lead_agent"
)
print(response)

DeerFlow vs 其他 Agent 框架横评

市面上 Agent 框架越来越多,DeerFlow 到底处于什么位置?我把几个主流框架放在一起对比:

对比总览

维度DeerFlow 2.0OpenClawLangGraphCrewAIAutoGPT
定位Super Agent Harness个人 AI 助手Agent 编排底层框架Multi-Agent 协作自主 Agent
开发语言Python + TypeScriptNode.js (TypeScript)PythonPythonPython
IM 渠道4 个(Telegram/Slack/飞书/企微)25+ 个(几乎全覆盖)
Sandbox 隔离✅ Docker/K8s✅ 沙箱执行❌ 需自建
长期记忆✅ 内置✅ 文件系统 + Memory✅ 内置❌ 需插件
MCP 协议
语音交互✅ 唤醒词 + TTS
Coding Agent 集成✅ Claude Code/Codex✅ Claude Code/Codex/Cursor
上手难度中等简单(npm 一键安装)较高简单中等
适合场景研究/编码/自动化任务全天候个人助手自定义 Agent 工作流团队协作任务实验性自主任务

详细对比

DeerFlow vs LangGraph

DeerFlow 基于 LangGraph 构建,可以理解为 LangGraph 的"上层应用":

  • LangGraph 是底层编排框架,提供图结构、状态管理、持久化等基础能力
  • DeerFlow 在此之上封装了 Sandbox、Memory、IM 渠道、Skills 等开箱即用的功能

类比:LangGraph 是 Express.js,DeerFlow 是 Next.js。

DeerFlow vs OpenClaw

这两个项目定位不同但有交集:

  • OpenClaw 更像一个"个人 AI 管家"——跑在你自己的设备上,连接你所有的聊天渠道(WhatsApp、Telegram、微信、QQ 等 25+ 个),支持语音唤醒、Live Canvas、多 Agent 路由。它的核心价值是随时随地可用的个人助手
  • DeerFlow 更像一个"AI 工作站"——专注于复杂任务的执行,强调 Sandbox 隔离、Sub-Agent 编排、深度研究能力。它的核心价值是完成高难度的长时间任务

简单说:OpenClaw 是你的日常助手,DeerFlow 是你的专项工具。

如果你想要一个 7×24 小时在线、能在手机上随时聊天的 AI 助手,OpenClaw 更合适。如果你需要让 AI 花几个小时帮你做深度研究或写一个完整项目,DeerFlow 更对口。

DeerFlow vs CrewAI
  • CrewAI 强调"角色扮演"式的多 Agent 协作(给每个 Agent 分配角色和目标)
  • DeerFlow 更工程化,有真正的 Sandbox 隔离和代码执行环境

CrewAI 适合快速原型,DeerFlow 适合生产环境。

DeerFlow vs AutoGPT
  • AutoGPT 是"放飞自我"式的自主 Agent,给个目标就让它自己跑
  • DeerFlow 更可控,有明确的任务分解和执行流程

AutoGPT 适合实验和探索,DeerFlow 适合需要可靠输出的场景。

选型建议

  • 想要个人 AI 助手,随时聊天 → OpenClaw
  • 想做深度研究、复杂编码任务 → DeerFlow
  • 想从零构建自定义 Agent 工作流 → LangGraph
  • 想快速搭建多 Agent 协作原型 → CrewAI
  • 想实验自主 Agent 的极限 → AutoGPT

安全注意事项

⚠️ 几个重要提醒:

  1. 不要在生产环境直接暴露 DeerFlow 服务
  2. 使用 Sandbox 模式隔离代码执行
  3. 配置 allowed_users 白名单(IM 渠道)
  4. 定期更新依赖和镜像

总结

DeerFlow 从最初的 Deep Research(深度研究框架)演变为通用的 Super Agent Harness,能够处理研究、编码、创作、自动化等各种任务。

如果你对 Multi-Agent 系统感兴趣,或者想给自己搭一个私有化的 AI 助手,DeerFlow 值得一试。

相关链接:


常见问题

Q: 可以用国内大模型吗?

可以。推荐豆包(Doubao)、DeepSeek、Kimi,配置方式与 OpenAI 兼容。

Q: 支持完全本地部署吗?

支持。可以用 vLLM、Ollama 等本地推理服务,无需云端 API。

Q: 如何自定义 Skills?

参考 backend/deerflow/skills/ 目录下的示例,创建 Skill 类并在 config.yaml 中注册。

Q: Windows 能跑吗?

可以,但需要用 Git Bash 运行。不支持原生 cmd.exe 或 PowerShell。推荐 WSL2 或直接用 Linux/macOS。