AI代理正快速发展,编排层成为关键。MCP、A2A、OASF等标准之争激烈,旨在提升AI的安全性、可靠性和效率。MCP在工具和上下文共享方面领先,A2A在点对点通信中崭露头角。选择合适的编排栈需考虑治理、互操作性及供应商锁定风险。
译自:Choosing Your AI Orchestration Stack for 2026
作者:Cameron McDougle
AI 以惊人的速度发展。就在几个月前,我们还在讨论代理式 AI 执行系统操作的初步能力是最新突破。
现在这已经过时了。
最新的讨论是关于将AI 代理的能力正式化到一个编排层(允许代理在生产环境中安全运行的层),并为其提供:
- 上下文
- 适当的系统访问权限。
- 工具集。
- 与其他代理有效沟通的能力。
- 一个依赖人工批准关键操作的机制。
这个层,或者更准确地说是一个技术栈,甚至可以允许代理在生产环境中安全运行。它是 AI 普及的基础组成部分。
它解锁了新的能力。
编排层中的这些需求引发了标准之战、软件栈和互操作性。每个都在争夺提升 AI 的覆盖范围并使其更有效。其中最突出的是模型上下文协议 (MCP),它充当托管工具、上下文等的服务器。
这样它们就可以供 AI 代理使用。
编排中的这些标准旨在使 AI 代理更加稳定、可靠和幂等。
我们基本上是在为 AI 代理创建一个中心,让它们在不不知所措的情况下找到所需的东西。
关键见解
- AI 代理不再仅仅是“它们能行动吗?”,而是“它们如何行动?”。它们需要适当的上下文、工具、人工控制和安全的系统访问。您的编排栈是基础。
- 虽然 MCP 在工具/上下文层面占主导地位,但代理间协议 (A2A) 用于同级消息传递,而 Open Agent Standard Framework (OASF) 用于生命周期管理等替代方案正在获得关注。明智的做法是采用混合栈。
- 在生产环境中部署代理意味着要处理版本控制、审计日志、幂等性、人工批准和上下文修剪。MCP 类系统解决了所有这些问题。但锁定、互操作性和不断变化的标准是在选择编排层时需要考虑的有效风险。
编排层标准之战
MCP 并非没有(建设性的)批评者,其他人也在寻找自己的市场。他们非常值得一提。
是的,MCP 得到了微软、谷歌和 IBM 等重量级公司的支持。但其他标准(既补充又竞争 MCP)则得到了 Meta AI、AWS 和 Stripe 等公司的支持。
这种互补/竞争的性质使得这些标准能够共同成长和适应,从而形成一个迷人的竞技场。它们塑造了 AI 的未来。
让我们来看看:
| 标准 / 协议 | 范围 | 主要支持者 | 状态(2025 年 10 月) | 关键仓库 / 规范 |
|---|---|---|---|---|
| MCP – 模型上下文协议 | 安全、版本化的工具 + 上下文共享 | 微软、谷歌、Vercel、IBM、Anthropic | 事实上的领导者 | modelcontextprotocol.org |
| A2A – 代理间 | 点对点消息传递、功能发现 | OpenAI、Meta AI、Hugging Face | 快速增长 | github.com/a2aproject/… |
| OASF – 开放代理标准框架 | 完整生命周期(启动、编排、退休) | Linux Foundation AI | 征求意见阶段 | github.com/agntcy/oasf |
| ACP – 代理通信协议 | 轻量级 JSON-RPC 用于工具 | IBM、LangChain | 稳定,但小众 | github.com/i-am-bee/ac… |
| x402 | 工具调用的微支付 | Solana、Ehereum 等 | 稳定 | x402.org |
| AGNTCY | 基于图的工作流定义 | Linux Foundation、Google Cloud 等 | 社区驱动草案 | github.com/agntcy |
要点是什么?
MCP 在代理协议领域处于领先地位,拥有跨供应商的 SDK、最全面的基准测试(MCPToolBench++)以及内置的企业审计日志——这些功能现在正在被 A2A 和 AGNTCY 匹配或接近。
其余的仍然是互补的,具有专注的目标(例如,A2A 用于同级通信)。
关键反馈
编排标准之战不仅仅是一场技术辩论。它正在引发 AI 领导者、开发人员和研究人员之间的激烈讨论。
随着采用率的飙升,意见从热情的认可到对锁定风险、安全漏洞和互操作性挑战的尖锐批评不等。
支持 MCP 的声音:“AI 的 USB-C”阵营
MCP 的支持者称其为基础性的“AI 的 USB-C”,解决了 N×M 集成噩梦,其中每个代理-工具对都需要自定义代码。
“MCP 现在病毒式传播……AI 的 USB-C 时刻”— @minchoi, 2025 年 3 月
早期采用者如 Block、Apollo 和 Zed 报告代理原型开发速度更快,Sourcegraph 则指出上下文代码生成功能更强。
MCP 的批评者:真正的工程是解决方案
MCP 的反对者认为它在增加令牌消耗,
“MCP 会导致上下文腐烂。有一个简单的修复方法,但它要求我们进行实际的工程,而不是乱喷……”— @curiouslychase, 2025 年 11 月
同样,认证会产生 MxN 问题,增加攻击面。
“每个代理都需要单独向每个工具进行身份验证。如果您运行 10 个代理跨越 20 个工具,那就是 200 个单独的 OAuth 流程。”— @GoKiteAI, 2025 年 6 月
社区情绪(2025 年 10 月调查)
DuploCloud 的 2025 AI + DevOps 报告,基于对 135 位工程领导者的调查,反映了这些趋势。
我们发现 67% 的团队增加了在 DevOps 中的 AI 投资。近 80% 的团队正在探索具有执行能力的自动化代理。
我们的报告显示,DevOps 的成功现在取决于安全的编排层,这些层能提供速度、合规性和人工干预控制。这些正是推动 MCP 类产品在生产环境中采用的相同特质。
总体共识?MCP 赢得了工具,A2A 拥有协作。OASF 可能会在 2026 年实现统一。
塑造这场战争的趋势
随着爆炸式增长,标准之战正在加速。AI 编排市场预计将在 2025 年达到114.7 亿美元(复合年增长率为 23%)。
这是基于数据、示例和前瞻性信号的脉搏:
- 从开源代理项目到 n8n 等可视化构建器:n8n v2 现在提供原生 MCP 节点。
- MCP 服务器的使用正在激增,从开源到 Vercel AI Gateway、Azure MCP Hub、Google Context Broker 和 IBM Watson Orchestrate 等大公司的商业服务,均于 2025 年第三季度全面上市。
- 上下文工程:随着令牌窗口扩展到 100 万+,MCP v1.3 引入了修剪、摘要缓存和语义分块以对抗过载。它们只保留相关的线程。这对于上下文膨胀率导致 30% 到 50% 的失败率的长期运行的集群至关重要。
加速生态系统的其他趋势:
- 人工干预 2.0:MCP 批准钩子将 Slack/Teams 与服务级别协议计时器集成(例如,5 分钟后自动升级)。这融合了自主性和监督。在金融领域,代理在首席财务官批准转账时暂停,这已成为标准。
具有这些特征的编排层是 AI 代理在生产环境中安全运行的关键要求。
为什么自己编写 MCP 服务器?(而不是预制的开源)
预制服务器(LangChain MCP、Vercel Gateway)非常适合快速启动,但自定义服务器为生产解锁了显著更大的价值:
- 完全控制和定制(根据 Gartner 数据,迭代速度快 65%):定制幂等性(如果 cached_result:则返回),添加自定义授权或嵌入域逻辑。预制产品无法触及您的专有工作流程。
- 节省成本(令牌节省 30-50%):直接在工具中集成轻量级 LLM;在服务器级别修剪上下文。开源中心按调用收费或限制规模。
- 安全/合规(企业必备):完整的审计跟踪,用于工具的角色访问控制(RBAC)和零供应商数据泄露。预制产品通常会记录到第三方云。
- 可扩展性(处理每秒 1000 多个请求):异步处理、版本固定和水平扩展。
- 可扩展性和集成:与内部系统(ERP、CRM)链式集成,添加 x402 payments 或 A2A 节点。预制产品将您锁定在其生态系统中。
| 方面 | 预制开源(LangChain/Vercel) | 自定义 MCP 服务器 |
|---|---|---|
| 设置时间 | 5 分钟 | 20 分钟 |
| 每月成本 | 50 美元以上(托管+限制) | 10 美元(您的基础设施) |
| 定制 | 仅插件 | 完全源代码控制 |
| 安全 | 共同责任 | 您的保险库 |
| 规模 | 100-500 RPS | 1k+ RPS |
| 供应商锁定 | 高(他们的更新) | 无 |
**专业提示:**从预制产品开始以实现最小可行产品,然后迁移到自定义产品以用于生产。完整仓库:github.com/simple-mcp-…。
A2A:MCP 王座的去中心化挑战者
虽然 MCP 在工具发现和上下文方面占主导地位,但 A2A(代理间)正悄然成为对等通信的事实标准。将其想象成“AI 代理的 WebRTC”。A2A v0.9 由 OpenAI、Meta AI 和 Hugging Face 于 2024 年底推出,已经支持超过 120 个 SDK。而且其增长速度比 MCP 在同一阶段的增长速度更快。
A2A 的重要性
| 特征 | MCP | A2A |
|---|---|---|
| 主要关注点 | 工具 + 上下文服务器 | 对等消息传递 + 功能协商 |
| 传输 | HTTP/2 + gRPC | WebSocket + 可选 QUIC |
| 发现 | 静态目录 | 动态 /.well-known/a2a-capabilities |
| 安全 | mTLS + JWT | OAuth 2.1 + 相互 TLS + 可选 ZK 证明 |
| 延迟(100 代理集群) | ~180 毫秒 | 92 毫秒(A2A PeerBench) |
A2A 如何补充(并竞争)MCP
MCP 形成了工具平面(版本化、可审计),而 A2A 形成了通信平面(异步、多模态)。这使得 MCP 之后的流程更加流畅。
以下是此类流程的一个示例:
- 代理通过 MCP 发现工具。
- 通过 A2A 协商任务委托。
- 通过 MCP 调用执行。
- 通过 A2A 流返回结果。
批评和风险
A2A 确实还很年轻,仍然没有内置日志记录,并且依赖于 OASF 或类似的协议。它缺乏去中心化,依赖于 Hugging Face 的注册中心,并且必须经过快速开发和重大更改才能成熟。
“MCP 给你锤子。A2A 教会代理讨论要敲哪颗钉子。”— @surfer_nerd, 2025 年 11 月
前进的道路
随着混合栈的融合和边缘的快速创新,编排之战正在加剧。
从即将发布的 MCP 2.0、Linux Foundation 的 OASF 批准投票,以及 Google、AWS、欧盟的《人工智能法案》强制问责制和 Hugging Face 之间的联合努力,通过 RPC 集成 A2A 和 ACP,预计 80% 的企业 AI 将运行在由这些技术和尚未发明的新技术组成的编排代理栈上。
开放、可组合的堆栈优先考虑可靠性而非炒作。
结论
在 DuploCloud,我们很高兴能站在 AI 进步的最前沿,学习、跌倒、再次学习,最重要的是,创造和参与塑造未来的创新。
我们很乐意让您查看我们的 AI Helpdesk。或者订阅我们的新闻通讯,了解最新的突破。
常见问题解答
编排层与代理框架或 LLM 有何区别?
编排层围绕 LLM/代理运行。它为代理提供上下文(历史外部状态、工具目录)并管理对系统和工具的访问。它还确保生产级别的行为,包括人工批准工作流和审计/日志记录。如果没有它,代理仅仅是实验性和不受控制的。
MCP 本身是否足以满足所有用例?
不完全是。MCP 在“工具/上下文平面”方面很强大,例如版本化工具调用、上下文共享和审计日志。但对于点对点通信(代理之间的通信)、动态协商、边缘情况(区块链代理)等,可能需要像 A2A 这样的其他标准。明智的策略是分层堆叠,而不是仅仅押注一个协议。
如何在我的组织中评估和选择编排栈?
考虑您的优先事项:
- 治理和审计(MCP + ACP)
- 低代码/可视化工作流以提高速度(AGENTCY/n8n)
从那里,映射您的工具覆盖范围、供应商锁定风险、互操作性需求以及 SDK/支持者的成熟度。
过早选择编排标准有哪些主要风险?
有几个:
- 供应商锁定和生态系统捕获。
- 不断发展的协议之间不兼容。
- 如果标准仍然不成熟,可能会出现安全漏洞(提示注入、工具泄露)。
- 在需求简单时过早选择重量级堆栈或过度工程化。
计划灵活性和混合采用是明智的。