【GitHub每日速递 20260407】登顶GitHub第一!字节跳动开源DeerFlow 2.0:这款超级代理框架,靠子代理+沙箱搞定所有复杂工作流

0 阅读6分钟

登顶GitHub第一!字节跳动开源DeerFlow 2.0:这款超级代理框架,靠子代理+沙箱搞定所有复杂工作流

项目地址:github.com/bytedance/d…

主要语言:Python

stars: 48.1k

​编辑

项目概述

DeerFlow(Deep Exploration and Efficient Research Flow)是一个开源的超级智能体管理框架,于2026年2月28日推出2.0版本后登上GitHub Trending榜首。它基于LangGraph和LangChain构建,可协调子智能体、内存和沙盒,借助可扩展技能完成各类任务。

核心功能

  • 技能与工具:技能是结构化能力模块,以Markdown文件定义工作流、最佳实践和资源引用。DeerFlow自带研究、报告生成、幻灯片创建等技能,支持自定义和组合技能。工具方面,它有核心工具集,还支持通过MCP服务器和Python函数添加自定义工具。此外,它集成了Claude Code,可在Claude Code中直接与DeerFlow交互。
  • 子智能体:复杂任务可由主智能体动态生成子智能体处理,子智能体有独立上下文、工具和终止条件,并行运行并汇报结果,主智能体整合输出。
  • 沙盒与文件系统:每个任务在隔离的Docker容器中运行,拥有完整文件系统,包括技能、工作区、上传和输出目录,确保操作可审计且会话间无干扰。
  • 上下文工程:子智能体有独立上下文,避免干扰。会话中,DeerFlow积极管理上下文,总结子任务、卸载中间结果,防止上下文窗口溢出。
  • 长期记忆:DeerFlow能跨会话建立持久记忆,存储用户配置文件、偏好和知识,且更新时跳过重复事实条目。

推荐模型

DeerFlow与实现OpenAI兼容API的任何大语言模型都兼容,但使用支持长上下文窗口、推理能力、多模态输入和强大工具使用的模型效果更佳。

快速开始

配置

  • 克隆仓库:git clone https://github.com/bytedance/deer-flow.git && cd deer-flow
  • 生成配置文件:make config
  • 配置模型:编辑config.yaml定义模型,设置API密钥可通过编辑.env文件、导出环境变量或直接编辑config.yaml(不推荐用于生产)。

运行应用

  • Docker(推荐)
    - 开发:make docker-init(拉取沙盒镜像),make docker-start(启动服务)
    - 生产:make up(构建镜像并启动服务),make down(停止并移除容器)
  • 本地开发:完成配置后,依次执行make check(检查依赖)、make install(安装依赖)、make setup-sandbox(可选,预拉取沙盒镜像)、make dev(启动服务)。

高级特性

  • 沙盒模式:支持本地执行、Docker执行和Docker与Kubernetes结合执行,服务启动根据config.yaml的沙盒模式决定。
  • MCP服务器:支持可配置的MCP服务器和技能,HTTP/SSE MCP服务器支持OAuth令牌流。
  • IM通道:支持从Telegram、Slack、Feishu/Lark等消息应用接收任务,配置后自动启动,无需公共IP。
  • LangSmith追踪:内置LangSmith集成,启用后可在LangSmith仪表板查看LLM调用、智能体运行和工具执行的追踪信息。

2.5小时音频98秒转完!这款Insanely Fast Whisper火了,速度狂飙20倍,终端一键就能用⚡️

insanely-fast-whisper 是一个实现超快速语音转文字的工具。简单讲,它能极速将音频内容转成文字,比同类工具快很多。适用人群:需要高效处理语音转录的开发者和研究人员。

项目地址:github.com/Vaibhavs10/…

主要语言:Jupyter Notebook

stars: 11.0k

​编辑

核心功能

  • 快速音频转录:借助OpenAI的Whisper Large v3模型,能在不到98秒内完成150分钟音频的转录,实现极快的转录速度。
  • 命令行界面(CLI):提供高度定制化的CLI,支持在NVIDIA GPU和Mac设备上运行,可灵活配置多种参数进行音频转录。
  • 多模型支持:支持运行Whisper-large-v3、distil-whisper等不同模型,还可搭配Flash Attention 2进一步提升性能。
  • 多任务处理:支持转录和翻译两种任务,能自动检测音频语言,也可手动指定。
  • 时间戳支持:支持按块和按单词级别的时间戳输出。
  • 说话人分离:可通过设置相关参数进行说话人分离,如指定说话人数量等。

优势

  • 速度极快:通过优化配置,如使用Flash Attention 2、批量处理等,大幅缩短音频转录时间。
  • 易于使用:提供简单的CLI命令,方便用户在终端快速进行音频转录,无需复杂的代码操作。
  • 社区驱动:项目由社区驱动,会根据社区需求不断添加新功能。
  • 多平台支持:支持CUDA和mps(Mac)设备,具有较广泛的适用性。

应用场景

  • 内容创作:帮助创作者快速将音频内容转录为文字,提高创作效率。
  • 会议记录:对会议音频进行快速转录,方便后续整理和回顾。
  • 学术研究:处理学术讲座、访谈等音频资料,便于进行文本分析和研究。

安装与使用

安装

  • 使用pipx安装:pipx install insanely-fast-whisper,若Python版本为3.11.XX,可能需使用pipx install insanely-fast-whisper --force --pip-args="--ignore-requires-python"安装最新版本。
  • 若使用pip安装,可直接传递参数:pip install insanely-fast-whisper --ignore-requires-python

使用

  • 运行转录:insanely-fast-whisper --file-name <filename or URL>,在macOS上需添加-device-id mps
  • 运行Whisper-large-v3并使用Flash Attention 2:insanely-fast-whisper --file-name <filename or URL> --flash True
  • 运行distil-whisper:insanely-fast-whisper --model-name distil-whisper/large-v2 --file-name <filename or URL>
  • 不安装直接运行:pipx run insanely-fast-whisper --file-name <filename or URL>

CLI选项

  • -file-name:指定要转录的音频文件路径或URL。
  • -device-id:指定GPU设备ID,Mac使用"mps"。
  • -transcript-path:指定转录输出保存路径。
  • -model-name:指定用于自动语音识别的预训练模型。
  • -task:指定任务类型,转录或翻译。
  • -language:指定输入音频的语言,默认自动检测。
  • -batch-size:指定并行计算的批处理数量,内存不足时可减小。
  • -flash:是否使用Flash Attention 2。
  • -timestamp:指定时间戳类型,按块或按单词。
  • -hf-token:提供HF令牌用于音频片段的说话人分离。
  • -diarization_model:指定用于说话人分离的预训练模型。
  • -num-speakers:指定音频文件中确切的说话人数量。
  • -min-speakers:设置说话人分离时考虑的最小说话人数量。
  • -max-speakers:设置说话人分离时考虑的最大说话人数量。

常见问题解答

  • 安装flash-attn:使用pipx runpip insanely-fast-whisper install flash-attn --no-build-isolation
  • 解决Windows上的CUDA错误:手动在虚拟环境中安装torch,python -m pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
  • 避免Mac上的内存不足问题:设置-batch-size 4并使用-device-id mps

不使用CLI的使用方法

安装依赖:pip install --upgrade transformers optimum accelerate

import torch  
from transformers import pipeline  
from transformers.utils import is_flash_attn_2_available

pipe = pipeline(  
    "automatic-speech-recognition",  
    model="openai/whisper-large-v3",  
    torch_dtype=torch.float16,  
    device="cuda:0",  
    model_kwargs={"attn_implementation": "flash_attention_2"} if is_flash_attn_2_available() else {"attn_implementation": "sdpa"},  
)

outputs = pipe(  
    "<FILE_NAME>",  
    chunk_length_s=30,  
    batch_size=24,  
    return_timestamps=True,  
)

outputs  

原文:mp.weixin.qq.com/s/K4Io9XtNm…

欢迎关注公zh:AI Tech研习社

关注公zh,后台回复【OpenClaw完全使用手册】,领取OpenClaw完全使用手册.pdf学习资料,更多学习资源敬请期待。