登顶GitHub第一!字节跳动开源DeerFlow 2.0:这款超级代理框架,靠子代理+沙箱搞定所有复杂工作流
主要语言:Python
stars: 48.1k
编辑
项目概述
DeerFlow(Deep Exploration and Efficient Research Flow)是一个开源的超级智能体管理框架,于2026年2月28日推出2.0版本后登上GitHub Trending榜首。它基于LangGraph和LangChain构建,可协调子智能体、内存和沙盒,借助可扩展技能完成各类任务。
核心功能
- 技能与工具:技能是结构化能力模块,以Markdown文件定义工作流、最佳实践和资源引用。DeerFlow自带研究、报告生成、幻灯片创建等技能,支持自定义和组合技能。工具方面,它有核心工具集,还支持通过MCP服务器和Python函数添加自定义工具。此外,它集成了Claude Code,可在Claude Code中直接与DeerFlow交互。
- 子智能体:复杂任务可由主智能体动态生成子智能体处理,子智能体有独立上下文、工具和终止条件,并行运行并汇报结果,主智能体整合输出。
- 沙盒与文件系统:每个任务在隔离的Docker容器中运行,拥有完整文件系统,包括技能、工作区、上传和输出目录,确保操作可审计且会话间无干扰。
- 上下文工程:子智能体有独立上下文,避免干扰。会话中,DeerFlow积极管理上下文,总结子任务、卸载中间结果,防止上下文窗口溢出。
- 长期记忆:DeerFlow能跨会话建立持久记忆,存储用户配置文件、偏好和知识,且更新时跳过重复事实条目。
推荐模型
DeerFlow与实现OpenAI兼容API的任何大语言模型都兼容,但使用支持长上下文窗口、推理能力、多模态输入和强大工具使用的模型效果更佳。
快速开始
配置
- 克隆仓库:
git clone https://github.com/bytedance/deer-flow.git && cd deer-flow - 生成配置文件:
make config - 配置模型:编辑
config.yaml定义模型,设置API密钥可通过编辑.env文件、导出环境变量或直接编辑config.yaml(不推荐用于生产)。
运行应用
- Docker(推荐)
- 开发:make docker-init(拉取沙盒镜像),make docker-start(启动服务)
- 生产:make up(构建镜像并启动服务),make down(停止并移除容器) - 本地开发:完成配置后,依次执行
make check(检查依赖)、make install(安装依赖)、make setup-sandbox(可选,预拉取沙盒镜像)、make dev(启动服务)。
高级特性
- 沙盒模式:支持本地执行、Docker执行和Docker与Kubernetes结合执行,服务启动根据
config.yaml的沙盒模式决定。 - MCP服务器:支持可配置的MCP服务器和技能,HTTP/SSE MCP服务器支持OAuth令牌流。
- IM通道:支持从Telegram、Slack、Feishu/Lark等消息应用接收任务,配置后自动启动,无需公共IP。
- LangSmith追踪:内置LangSmith集成,启用后可在LangSmith仪表板查看LLM调用、智能体运行和工具执行的追踪信息。
2.5小时音频98秒转完!这款Insanely Fast Whisper火了,速度狂飙20倍,终端一键就能用⚡️
insanely-fast-whisper 是一个实现超快速语音转文字的工具。简单讲,它能极速将音频内容转成文字,比同类工具快很多。适用人群:需要高效处理语音转录的开发者和研究人员。
主要语言:Jupyter Notebook
stars: 11.0k
编辑
核心功能
- 快速音频转录:借助OpenAI的Whisper Large v3模型,能在不到98秒内完成150分钟音频的转录,实现极快的转录速度。
- 命令行界面(CLI):提供高度定制化的CLI,支持在NVIDIA GPU和Mac设备上运行,可灵活配置多种参数进行音频转录。
- 多模型支持:支持运行Whisper-large-v3、distil-whisper等不同模型,还可搭配Flash Attention 2进一步提升性能。
- 多任务处理:支持转录和翻译两种任务,能自动检测音频语言,也可手动指定。
- 时间戳支持:支持按块和按单词级别的时间戳输出。
- 说话人分离:可通过设置相关参数进行说话人分离,如指定说话人数量等。
优势
- 速度极快:通过优化配置,如使用Flash Attention 2、批量处理等,大幅缩短音频转录时间。
- 易于使用:提供简单的CLI命令,方便用户在终端快速进行音频转录,无需复杂的代码操作。
- 社区驱动:项目由社区驱动,会根据社区需求不断添加新功能。
- 多平台支持:支持CUDA和mps(Mac)设备,具有较广泛的适用性。
应用场景
- 内容创作:帮助创作者快速将音频内容转录为文字,提高创作效率。
- 会议记录:对会议音频进行快速转录,方便后续整理和回顾。
- 学术研究:处理学术讲座、访谈等音频资料,便于进行文本分析和研究。
安装与使用
安装
- 使用
pipx安装:pipx install insanely-fast-whisper,若Python版本为3.11.XX,可能需使用pipx install insanely-fast-whisper --force --pip-args="--ignore-requires-python"安装最新版本。 - 若使用
pip安装,可直接传递参数:pip install insanely-fast-whisper --ignore-requires-python。
使用
- 运行转录:
insanely-fast-whisper --file-name <filename or URL>,在macOS上需添加-device-id mps。 - 运行Whisper-large-v3并使用Flash Attention 2:
insanely-fast-whisper --file-name <filename or URL> --flash True。 - 运行distil-whisper:
insanely-fast-whisper --model-name distil-whisper/large-v2 --file-name <filename or URL>。 - 不安装直接运行:
pipx run insanely-fast-whisper --file-name <filename or URL>。
CLI选项
-file-name:指定要转录的音频文件路径或URL。-device-id:指定GPU设备ID,Mac使用"mps"。-transcript-path:指定转录输出保存路径。-model-name:指定用于自动语音识别的预训练模型。-task:指定任务类型,转录或翻译。-language:指定输入音频的语言,默认自动检测。-batch-size:指定并行计算的批处理数量,内存不足时可减小。-flash:是否使用Flash Attention 2。-timestamp:指定时间戳类型,按块或按单词。-hf-token:提供HF令牌用于音频片段的说话人分离。-diarization_model:指定用于说话人分离的预训练模型。-num-speakers:指定音频文件中确切的说话人数量。-min-speakers:设置说话人分离时考虑的最小说话人数量。-max-speakers:设置说话人分离时考虑的最大说话人数量。
常见问题解答
- 安装flash-attn:使用
pipx runpip insanely-fast-whisper install flash-attn --no-build-isolation。 - 解决Windows上的CUDA错误:手动在虚拟环境中安装torch,
python -m pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121。 - 避免Mac上的内存不足问题:设置
-batch-size 4并使用-device-id mps。
不使用CLI的使用方法
安装依赖:pip install --upgrade transformers optimum accelerate
import torch
from transformers import pipeline
from transformers.utils import is_flash_attn_2_available
pipe = pipeline(
"automatic-speech-recognition",
model="openai/whisper-large-v3",
torch_dtype=torch.float16,
device="cuda:0",
model_kwargs={"attn_implementation": "flash_attention_2"} if is_flash_attn_2_available() else {"attn_implementation": "sdpa"},
)
outputs = pipe(
"<FILE_NAME>",
chunk_length_s=30,
batch_size=24,
return_timestamps=True,
)
outputs
原文:mp.weixin.qq.com/s/K4Io9XtNm…
欢迎关注公zh:AI Tech研习社
关注公zh,后台回复【OpenClaw完全使用手册】,领取OpenClaw完全使用手册.pdf学习资料,更多学习资源敬请期待。