什么是MCP(模型上下文协议)?
Anthropic 推出的模型上下文协议(MCP)定义了一个标准化接口,用于向大型语言模型(LLM)提供结构化的实时上下文。
核心功能
上下文数据注入
MCP 允许您将外部资源(如文件、数据库行或 API 响应)直接引入提示词或工作内存。所有这些都通过标准化接口提供,因此您的 LLM 可以保持轻量级和简洁。
函数路由与调用
MCP 还允许模型动态调用工具。您可以注册诸如 searchCustomerData 或 generateReport 之类的功能,LLM 可以按需调用它们。这就像为您的 AI 提供了一个工具箱的访问权限,但无需将工具硬编码到模型本身中。
提示词编排
MCP 辅助实现仅组装重要的上下文,而不是在提示词中塞满所有可能的细节。考虑模块化的、即时的提示词构建——更智能的上下文、更少的 tokens、更好的输出。
实现特点
-
通过 HTTP(S) 运行,使用基于 JSON 的功能描述符
-
设计为与模型无关——任何具有兼容运行时的 LLM 都可以利用符合 MCP 标准的服务器
-
与 API 网关和企业认证标准(如 OAuth2、mTLS)兼容
工程用例
➀ 内部 API 的 LLM 集成:支持对结构化业务数据的安全、只读或交互式访问,而不暴露原始端点。
➁ 企业代理:为自主代理配备来自 Salesforce、SAP 或内部知识库等工具的运行时上下文。
➂ 动态提示词构建:根据用户会话、系统状态或任务管道逻辑定制提示词。
什么是ACP(智能体通信协议)?
智能体通信协议(ACP)是由BeeAI和IBM最初提出的开放标准,旨在支持在相同本地或边缘环境中运行的AI智能体之间进行结构化通信、发现和协调。
与面向云的协议(如A2A)或上下文路由协议(如MCP)不同,ACP专为本地优先的实时智能体编排而设计,具有最小的网络开销,并且在共享运行时内部署的智能体之间实现紧密集成。
协议设计与架构
ACP定义了一个去中心化的智能体环境,其中:
-
每个智能体使用本地广播/发现层来宣传其身份、能力和状态。
-
智能体通过事件驱动的消息传递进行通信,通常使用本地总线或IPC(进程间通信)系统。
-
运行时控制器(可选)可以编排智能体行为、聚合遥测数据并执行执行策略。
ACP智能体通常作为轻量级、无状态的服务或容器运行,并具有共享的通信底层。
实现特点
-
专为低延迟环境设计(例如本地编排、机器人技术、离线边缘AI)
-
可通过gRPC、ZeroMQ或自定义运行时总线实现
-
强调本地自主性——无需云依赖或外部服务注册
-
支持能力类型化和语义描述符,用于自动化任务路由
工程用例
➀ 边缘设备上的多智能体编排(如无人机、物联网集群或机器人群)
➁ 协调模型调用、传感器输入和动作执行的本地优先LLM系统
➂ 智能体必须在没有集中式云基础设施的情况下进行协调的自主运行时环境
简而言之,ACP为模块化AI系统提供了运行时本地协议层——优先考虑低延迟协调、弹性和可组合性。它非常适合隐私敏感、自主或边缘优先的部署场景,在这些场景中,云优先协议并不实用。
在下一篇博客中,我们将继续介绍A2A协议以及他们之间的关系,欢迎持续关注我们,以获取更多信息。