先说人话:DeerFlow 是什么?
DeerFlow(Deep Exploration and Efficient Research Flow)是字节跳动开源的 Super Agent Harness。
翻译成人话就是——它不只是一个会聊天的 AI,而是一套真正能替你干活的智能体系统。
为什么强调这个?因为现在满大街都是"AI 助手",但99%都只是嘴炮选手——它能跟你聊天,但没法真的帮你执行任务。
DeerFlow 不一样。它有:
-
🖥️ 自己的文件系统——能读写文件
-
⚙️ 自己的执行环境——能跑代码、执行命令
-
📊 自己的记忆系统——跨 session 记住你的偏好
-
🔌 可插拔的技能系统——像搭积木一样扩展能力
我第一次用它做调研的时候,跟朋友说了一句话:** "相当于给 AI 配了一台电脑,而不是只给它一个键盘。" **
我拿它干了什么?
📊 场景一:凌晨两点的文献调研
上周赶一篇技术报告,需要梳理近三年所有关于 LLM Agent 的论文。换以前我要么熬夜硬啃,要么灌几杯咖啡然后大概率睡着。
这次我跟 DeerFlow 说:** "帮我整理 2023-2026 年关于 LLM Agent 的重要论文,按时间线组织,每篇给一句话总结和主要贡献。" **
然后我去洗澡了。
回来的时候它已经整理好了——16篇论文,按年份分类,每篇有摘要、主要贡献、我的个人评价(它学会的),还有一个我可以直接复制粘贴到报告里的参考文献列表。
**这大概花了 20 分钟。 ** 我自己干至少要两天。
💻 场景二:我的 CI/CD 流程自动化
作为一个半吊子 DevOps 选手,配置 CI/CD 一直是我头疼的事。
我用 Claude Code 里的 DeerFlow 插件,直接在终端里说:** "帮我用 GitHub Actions 搭建一个 Node.js 项目的 CI 流程,包括单元测试、集成测试、和自动部署到 Vercel。" **
它不仅生成了配置文件,还自动检测我的项目结构,发现我的测试框架是 Vitest 不是 Jest,主动调整了配置。
整个过程我没打开任何文档,没查任何 Stack Overflow。
🎨 场景三:给技术博客生成配图
写技术文章最烦的就是配图。以前我都是随便找点素材凑合,或者干脆不配图。
现在我直接跟 DeerFlow 说:** "帮我生成一张图,展示 LangGraph 的多智能体协作流程,配色要科技感,风格要极简。" **
它直接调用的内置 image-generation skill,生成了一张我自己用 Figma 可能要画两小时的图。
核心特性解析(偏技术向)
Sub-Agents:你的并行工作流
DeerFlow 的 Sub-Agent 系统是我见过最优雅的多智能体实现之一。
当你提交一个复杂任务时,lead agent 会自动拆解成多个子任务,然后并行拉起多个 sub-agent 独立执行。
举个例子,当我让它研究"对比分析 Claude MCP 和 OpenAI Plugin 生态":
-
Sub-agent 1:负责爬取 Claude MCP 官方文档
-
Sub-agent 2:负责爬取 OpenAI Plugin 生态资料
-
Sub-agent 3:负责搜索 GitHub 上的实际项目案例
-
Sub-agent 4:负责搜索开发者社区的讨论和评价
四个 sub-agent 同时工作,30分钟后合并成一份完整的对比分析报告。
**以前我串行做这件事,需要半天。 **
Sandbox:安全隔离的"AI 电脑"
每个任务都运行在独立的 Docker 容器里,容器里有完整的 Linux 环境:
/mnt/user-data/
├── uploads/ ← 你上传的文件
├── workspace/ ← AI 的工作目录
└── outputs/ ← 最终交付物
这意味着:
-
安全隔离——AI 的操作不会影响你的真实系统
-
环境一致——每次运行的环境完全相同,不会出现"在我这儿能跑"的问题
-
可审计——所有文件操作、命令执行都有记录
我之前用其他 AI 编程工具,最怕的就是它一不小心执行了某个危险命令。DeerFlow 的 sandbox 模式让我安心多了。
Skills 系统:把工作流固化成模板
Skills 是 DeerFlow 最让我上头的功能。
本质上,一个 Skill 就是一个 Markdown 文件,定义了:
-
这个技能的工作流程
-
最佳实践和注意事项
-
相关的参考资料
内置的 skills 包括:
-
📚
research— 深度研究报告 -
📄
report-generation— 报告生成 -
🎯
slide-creation— PPT/演示文稿 -
🌐
web-page— 网页生成 -
🖼️
image-generation— 图片生成
最妙的是按需加载——只有当任务需要某个 skill 时,它才会被注入到上下文里。这意味着你的 token 不会被浪费在无关的内容上。
我已经开始写自己的 skill 了,把我写技术博客的工作流固化下来。下次写新文章,只需要一行命令,DeerFlow 就能自动完成:选题调研 → 列提纲 → 写初稿 → 配图 → 自审校
Memory:越用越懂你
大部分 AI 工具在你关闭对话后就"失忆"了。
DeerFlow 不一样。它会跨 session 记住:
-
你的写作风格(我是技术写作风格偏口语化)
-
你的技术栈偏好(我更关注 LLM 和 Agent 方向)
-
你常见的工作习惯(我喜欢用列表而不是长段落)
用了两周后,我发现它的输出越来越符合我的"口味"了。这种感觉…像是找了一个长期并肩作战的搭档,而不是每次都从零开始的工具。
安装避坑指南(新手向)
方式一:Docker(推荐指数 ⭐⭐⭐⭐⭐)
说实话,这是我见过安装最友好的开源 AI 项目之一。
第一步:克隆代码
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
第二步:生成配置
make config
这一步会自动生成 config.yaml,你只需要填模型配置就行。
第三步:选模型
我个人的推荐是:
-
🌱 Doubao-Seed-2.0-Code(国内首选,速度快,效果好)
-
🔵 DeepSeek v3.2(性价比之王)
-
🌙 Kimi 2.5(中文理解能力强)
配置示例:
models:
- name: doubao-seed
display_name: Doubao-Seed-2.0
use: langchain_openai:ChatOpenAI
model: doubao-seed-2.0-code
api_key: $DOUBO_API_KEY
base_url: https://ark.cn-beijing.volces.com/api/v3
第四步:配 API Key
# 网络搜索(必需,没有就等于瞎子)
TAVILY_API_KEY=your-tavily-key-here
# 各大模型 API Key(按需配置)
ARK_API_KEY=your-ark-key-here
DEEPSEEK_API_KEY=your-key-here
KIMI_API_KEY=your-key-here
💡 Tavily API 有免费额度,去 tavily.com 注册就行,5分钟搞定。
第五步:启动
make docker-init # 首次运行需要拉镜像,等几分钟
make docker-start # 启动服务
然后打开 http://localhost:2026 ,开始玩耍!
方式二:本地开发
如果你想深度定制或者参与开发:
make check # 检查环境依赖
make install # 安装前后端依赖
make dev # 启动开发模式
⚠️ 本地模式需要自己处理 Node.js、pnpm、uv、nginx 等依赖,新手建议直接用 Docker。
几个我踩过的坑
**Q1:模型连不上? **
→ 99% 的情况是 API Key 填错了。注意 .env 文件里的变量名要和 config.yaml 里的一致,比如 Doubao 用的是 ARK_API_KEY 不是 DOUBO_API_KEY。
**Q2:搜索功能不工作? **
→ 确认配置了 TAVILY_API_KEY,这是 DeerFlow 网页搜索的灵魂。没有它,DeerFlow 就没法主动查资料。
**Q3:第一次启动特别慢? **
→ 正常现象,Docker 需要拉取基础镜像,大概 2-3GB。喝杯咖啡就好了。
彩蛋:Claude Code 用户看过来
如果你用 Claude Code,有个骚操作——可以直接在终端里调用 DeerFlow:
npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow
然后在 Claude Code 里用 /claude-to-deerflow 命令。
这意味着你可以在不离开编辑器的情况下,让 DeerFlow 帮你完成研究、生成报告、甚至创建图片。
我的工作流:用 Claude Code 写代码 → 遇到不熟悉的领域 → /deerflow 做调研 → 调研结果直接贴到代码注释里 → 继续写代码
爽。
写在最后
说实话,第一次看到 DeerFlow 的介绍时,我是有点怀疑的——"Deep Research"这个概念在 2023 年就被炒烂了,大部分都是噱头。
但真正用了一周后,我的评价是:**这是目前最接近"AI 个人助理"这个概念的开源实现。 **
它不完美——配置对新手还是有门槛,sandbox 模式占用资源不小,某些场景下响应速度不够快。
但作为一个开源项目,它展现了真正的工程诚意:
-
代码质量高,文档详细
-
架构设计清晰,扩展性强
-
社区活跃,响应迅速
**开源免费,数据完全在自己手里。 ** 光这一点,就值得你花20分钟体验一下。