多 Agent 协作写代码还在手动拆任务?open-multi-agent 框架一句 runTeam() 就搞定

3 阅读3分钟

团队开发一个功能,从设计到实现再到代码审查,往往需要多轮沟通和任务交接。架构师出方案、开发者写代码、审阅者检查质量,这个流程在 AI 辅助编程时代依然存在——只是变成了人与 AI 的反复对话。你需要先告诉 Claude 设计 API,再把输出复制给另一个会话让 GPT 实现,最后换到第三个会话做审查。任务拆分、上下文传递、结果汇总,这些协调工作全落在你头上。

更麻烦的是,当你想让多个 AI 各自发挥所长(Claude 做设计、GPT-4 写代码、本地 Gemma 做审查),需要为每个模型维护独立的 API 客户端和工具注册。CrewAI 能解决这类问题,但它是 Python 生态;LangGraph 要求你手动绘制任务图,学习曲线陡峭。

open-multi-agent 是 2026 年 3 月底创建的 TypeScript 多 Agent 框架,目标是用最小的心智负担实现多 Agent 协作。它只有 3 个运行时依赖,5700+ stars,核心是一句话调用:runTeam(team, "构建 REST API")。


这个框架围绕"声明式协作"设计。你定义一个 Team,配置若干 Agent(每个可绑定不同模型和工具集),然后丢给它一个自然语言目标。框架内部启动 Coordinator Agent,把目标拆解成带依赖关系的任务 DAG,自动分配给合适的 Agent 执行。独立任务并行运行,有依赖的任务按拓扑顺序执行。

框架内置 6 种工具:bash、file_read/file_write/file_edit、grep、glob。Agent 可通过 toolPreset 快速获得预设权限,也可通过 MCP 协议接入外部工具服务器。支持 6 种 LLM 提供商:Anthropic、OpenAI、Gemini、Grok、Copilot,以及任何 OpenAI 兼容端点。执行过程通过 onProgress 回调暴露事件,方便接入日志或监控。


实现这套能力的关键是 Coordinator 模式 + 依赖感知任务队列。Coordinator 接收目标和 Team 成员列表后,输出 JSON 格式的任务数组,每个任务包含标题、描述、被指派人、依赖项。框架把数组加载到 TaskQueue,自动解析依赖关系构建 DAG。任务状态由队列事件驱动:完成后自动 unblock 下游依赖,失败则级联标记依赖任务为失败。

AgentPool 负责并发控制,通过 Semaphore 限制同时运行的 Agent 数量,并为每个 Agent 维护独立锁防止竞态。Scheduler 实现自动分配策略,支持按能力匹配或轮询。LLM 调用层通过 Adapter 模式封装不同提供商的接口差异。

整个框架刻意保持精简:没有持久化状态,没有 Agent 间中途交接,没有可视化编辑器。这种取舍让它以 41 个源文件、3 个依赖的体量,提供接近 CrewAI 的核心编排能力,同时完全融入 Node.js 生态。