超详细入门指南,什么是MCP,为什么突然间所有人都在谈论它?

25 阅读15分钟

开始这篇文章之前,引用一句话。“即使是最复杂的模型也受限于其与数据的隔离,特别是当被困在信息孤岛和传统系统之后。所以上下文集成很重要“。 今天的大型语言模型(LLMs)在真空环境中非常智能,但一旦需要获取超出其固定训练数据的信息,它们就会遇到困难。要让AI代理真正有用,它们必须能够在适当的时候访问适当的上下文——无论是你的文件、知识库还是工具——甚至能够基于该上下文执行操作,如更新文档或发送电子邮件。历史上,将AI模型连接到所有这些外部源一直是一个混乱、临时的过程。开发人员必须为每个数据源或API编写自定义代码或使用专门的插件。这使得"连接起来"的集成变得脆弱且难以扩展。 当然为了简化这一过程,Anthropic提出了模型上下文协议(Model Context Protocol,MCP)——一个旨在连接AI助手与数据和工具世界的开放标准,用于接入多种不同的上下文源。他们在2024年11月宣布了这一标准。当时的反应相当平淡。但现在MCP正在成为热点,已经超过了Langchain,并有望很快超越OpenAPI和CrewAI。主要的AI参与者和开源社区正聚集在MCP周围,将其视为构建主动式AI系统的潜在游戏规则改变者。这是为什么呢? 在这里插入图片描述 在本文中,我们将深入探讨MCP——为什么它现在是一个热门话题,MCP如何实现向更集成、更具上下文感知的AI转变,它在主动式工作流中的位置,以及开发人员、研究人员、AI工程师和技术高管应该了解的隐藏细节。我们还将探索一些很少有人尝试过的MCP创新应用。总的来说,这是一个很好的入门指南,但对于那些已经尝试过MCP并想了解更多的人也很有用。一起来看看吧!

一 为什么MCP现在(而非去年11月)引起了轰动?

MCP最初由Anthropic在2024年11月底开源并宣布。当时,这是一个令人兴奋的想法,但并没有引起太多人的注意和重视。正是在2025年初,MCP真正地涌入了AI社区的意识。最近这股热潮有几个重要原因:

1.集成问题解决者:

AI代理和主动式工作流在2023-2024年成为主要热词,但它们的阿喀琉斯之踵仍然是:将这些代理与现实世界的商业系统和数据集成。最初,大多数注意力集中在模型能力和提示技术上,而非集成。MCP直接解决了这一差距,它定义了"如何连接现有数据源"(文件系统、数据库、API等)到AI工作流中。随着人们消化这一点,MCP开始被视为真正生产就绪的AI代理所缺失的拼图。(这是来自HumanX会议的观点之一:近年来,我们主要专注于构建专门用于特定任务的单个AI模型。但随着复杂性和需求的增长,正在发生一个转变,转向集成系统——多个专业模型、软件组件、API、数据源和界面协同工作的编排。)

2.社区和采用:

短短几个月内,MCP从概念发展为一个不断增长的生态系统。早期采用者包括Block(Square)、Apollo、Zed、Replit、Codeium和Sourcegraph等公司,他们开始集成MCP来增强他们的平台。快进到2025年,生态系统已经爆炸式增长——到2月份,已有超过1,000个社区构建的MCP服务器(连接器)可用。显然,随着行业向更集成和上下文感知的AI迈进,MCP引起了强烈共鸣。这种网络效应使MCP更具吸引力:通过MCP可用的工具越多,采用这一标准就越有用。

3.事实标准的势头:

与另一个专有SDK或一次性框架不同,MCP是开放的、模型无关的,并且由主要AI参与者支持。这意味着任何AI模型(Claude、GPT-4、开源LLM等)都可以使用MCP,任何开发者或公司都可以创建MCP集成,而无需许可。社区中的许多人现在将MCP视为AI系统连接外部数据方式标准化竞赛中的可能赢家(就像USB、HTTP或ODBC在各自领域成为普遍标准一样)。

4.快速发展和教育:

Anthropic不仅仅是发布MCP然后走开;他们一直在积极改进它并教育开发者。在最近的AI峰会上,Anthropic的Mahesh Murthy进行了一个病毒式传播的研讨会,加速了MCP的采用。

二 什么是MCP,它是如何工作的?

MCP制定了明确的规则,说明AI如何查找、连接和使用外部工具——无论是查询数据库还是运行命令。这让模型能够超越训练数据,使它们更灵活,更了解周围的世界。

1.MCP的技术概述:

在这里插入图片描述 一个引人注目的特点是MCP的动态发现——AI代理自动检测可用的MCP服务器及其功能,无需硬编码集成。例如,如果你启动一个新的MCP服务器(如CRM),代理可以通过标准化API立即识别并使用它,提供传统方法无法匹配的灵活性。

三 在MCP之前,AI系统是如何处理上下文和工具访问的?

让我们简要看一下给AI提供外部知识或行动的传统方法,以及MCP的不同之处:

  1. 自定义API集成(一次性连接器):最常见的方法是为每个服务编写自定义代码或使用SDK。例如,如果你希望你的AI代理访问Google Drive和SQL数据库,你需要分别集成Google的API和数据库驱动程序,每个都有自己的认证、数据格式和特性。真是令人头疼!相比之下,MCP提供了一个单一的"钥匙"(协议),可以打开许多门,并且可以添加新的MCP服务器而无需更改客户端。 语言模型插件(OpenAI插件等):2023年引入的另一种方法是为模型提供标准化的插件规范(通常是OpenAPI架构),使其能够以受控方式调用外部API(例如ChatGPT插件系统)。虽然在概念上与MCP相似(标准化工具访问),但这些是专有的且有限的——每个插件仍然需要单独构建和托管,并且只有特定平台(如ChatGPT或Bing Chat)可以使用它们。插件也倾向于关注单向数据检索(模型调用API并获取信息)而不是维持持续的交互会话。MCP通过开源和通用性(任何人都可以实现它,不绑定于一个AI提供商)以及支持丰富的双向交互来区分自己。这就像AI和工具之间的对话,而插件通常是无状态的问答调用。
  2. 通过框架使用工具(LangChain工具,代理):像LangChain这样的代理编排库普及了给模型提供"工具"(函数)及其描述的想法。例如,你可能有一个搜索工具或计算工具,代理(通过LLM)决定何时调用它们。这很强大,但每个工具在底层仍然需要自定义实现——LangChain的库增长到500多个工具,以一致的接口实现,但开发人员仍然需要连接这些工具或确保它们适合他们的需求。MCP可以被视为这里的补充:它为工具的实现提供了标准化接口。实际上,你可以将MCP服务器视为任何代理都可以使用的现成工具库。区别在于标准化的位置。LangChain创建了一个面向开发人员的标准(其Tool类接口)以将工具集成到代理的代码中。MCP创建了一个面向模型的标准——正在运行的AI代理本身可以在运行时发现并使用任何MCP定义的工具。这意味着即使你没有为特定工具自定义构建代理的代码,模型也可以动态集成它。在实践中,这些想法正在融合:例如,LangChain团队(在注意到MCP的激增后)提供了一个适配器,使所有这些MCP服务器(连接器)可以轻松地被视为LangChain工具。因此,在LangChain或其他框架中构建的代理可以像调用任何其他工具一样调用MCP工具,从不断增长的MCP生态系统中受益。
  3. 检索增强生成(RAG)和向量数据库:为LLM提供上下文的一种普遍方式是使用检索器,搜索知识库(文档、嵌入)并将最佳结果注入到提示中。这解决了模型的知识截止或有限记忆问题。然而,RAG通常处理静态文本片段,并且本质上不允许模型执行超出索引内容的操作或查询。MCP实际上可以与RAG一起工作——例如,MCP服务器可以与向量数据库或搜索引擎接口,允许模型作为工具发出搜索查询,而不是隐式地依赖每个提示的检索。可以说MCP是一种更一般的机制:RAG提供被动上下文,而MCP让模型通过定义的渠道主动获取或处理上下文。在需要最新或交互式数据的场景中(比如查询实时数据库或发布更新),MCP超出了仅仅检索文本的范围——它可以触发操作。

四 MCP是灵丹妙药,能解决所有问题吗?

当然,MCP不是灵丹妙药,它是一个极其方便的集成层。但像任何新兴技术一样,它引入了自己的一系列复杂性和挑战,开发人员和组织在大规模采用之前必须考虑这些问题: 主要关注点之一是管理多个工具服务器带来的额外开销。运行和维护与这些本地服务器的连接可能很麻烦,特别是在生产环境中,正常运行时间、安全性和可扩展性至关重要。MCP的初始实现是为本地和桌面使用而设计的,这引发了关于它如何转化为基于云的架构和多用户场景的问题。开发人员已经提出使MCP更加无状态并适应分布式环境,但这仍然是一个持续的挑战。 另一个问题在于工具的可用性。仅仅因为MCP扩展了AI模型的工具集并不一定意味着模型会有效地使用这些工具。之前的基于代理的框架已经证明,AI模型可能在工具选择和执行方面遇到困难。MCP试图通过提供结构化的工具描述和规范来缓解这一问题,但成功仍然取决于这些描述的质量和AI解释它们的能力。LangChain的创始人Harrison Chase强调的社区驱动方法表明,文档完善的工具可以提高可用性,但这仍然是一个不断完善的领域。 除了实施障碍外,MCP的成熟度也是一个考虑因素。作为一项相对较新的技术,它受到快速变化和不断发展的标准的影响。这可能导致破坏性变更,需要频繁更新服务器和客户端。虽然MCP的核心概念看起来稳定,但开发人员应该预期并准备版本升级和不断发展的最佳实践。 兼容性是另一个限制因素。目前,MCP在Anthropic的生态系统(例如Claude)中得到一流支持,但更广泛的采用仍不确定。其他AI提供商可能不会原生支持MCP,需要额外的适配器或自定义集成。在MCP获得更广泛的AI平台接受之前,其功用将在某种程度上受到限制。 对于更简单的应用,MCP甚至可能是过度的。如果AI模型只需要访问一两个简单的API,直接API调用可能是比实现MCP更有效的解决方案。与MCP的消息系统和服务器设置相关的学习曲线意味着需要权衡其好处与复杂性。 安全性和监控也带来持续的挑战。由于MCP充当中介,它需要强大的认证和权限控制以防止未授权访问。像MCP Guardian这样的开源倡议已经出现,通过记录请求和执行策略来解决这些问题,但在企业环境中保护MCP仍然是一项正在进行的工作。

五 MCP在主动式编排中的作用及其在主动式工作流中的位置

MCP本身不是一个"代理框架";相反,它充当代理的标准化集成层。MCP完全关注行动部分——特别是为代理提供一种标准化的方式来执行涉及外部数据或工具的操作。它提供了将AI代理连接到外部世界的管道,以安全、结构化的方式。如果没有MCP(或类似的东西),每当代理需要在世界上做某事时——无论是获取文件、查询数据库还是调用API——开发人员都必须连接自定义集成或使用临时解决方案。这就像构建一个机器人,但每次都要为抓取不同物体定制每个手指——乏味且不可扩展。 再次强调,MCP不是一个独立的编排引擎或代理大脑。相反,它是主动式架构中的一个集成层。它补充了像LangChain、LangGraph、CrewAI或LlamaIndex这样的代理编排工具,作为AI代理可以调用外部操作的统一"工具箱"。MCP不是替代编排——编排决定了代理何时以及为什么使用工具——而是定义了如何调用这些工具并交换信息。 它类似于代理的标准化API网关,通过允许客户端(代理)和服务器(工具)之间的通用兼容性,将集成复杂性从"N×M"问题减少为"N+M"问题。最终,MCP简化了外部功能的集成,使代理更加多功能、适应性强,能够在不同上下文中执行复杂任务。

六 MCP解锁的新可能性

MCP仍然很新,其全部潜力正在被探索。第一波用例很明显——将企业数据连接到聊天助手或增强编码代理与存储库访问。但一些新兴应用可能会将 AI Agent 提升到新的水平。 多步骤、跨系统工作流 主动式系统通常需要跨平台协调。假设AI计划一个事件:它检查你的日历,预订场地,发送电子邮件给客人,安排交通,更新预算表。现在,这需要手动拼接API。使用MCP,所有这些操作都通过单一接口进行。代理调用一系列MCP工具(每个任务一个),在它们之间保持共享上下文——没有丢失的线索,没有自定义集成。 理解其环境的代理(包括机器人) 除了工具访问外,MCP还可以使嵌入智能环境的AI代理——无论是在智能家居还是操作系统中——通过标准化的MCP服务器与传感器、物联网设备或操作系统功能交互。AI助手不再孤立运作,而是获得实时感知,实现更自然、更主动的辅助。 协作代理(代理社会)——我对这一点非常兴奋—— MCP还可以作为多代理系统的共享工作空间。专门的AI代理——一个用于研究,一个用于规划,另一个用于执行——可以使用MCP动态交换信息和协调任务。有了MCP,每个代理不需要直接集成;它们只需访问共同的工具集。 具有深度集成的个人AI助手 MCP可以让用户配置自己的AI安全地与个人数据和应用程序交互。本地MCP服务器可以授予AI访问电子邮件、笔记和智能设备的权限,而不会将敏感数据暴露给第三方。这可以创建一个超个性化的AI助手,而不依赖于基于云的服务。 企业治理和安全 对于企业来说,MCP标准化了AI对内部工具的访问,减少了集成开销。它还支持治理:AI交互可以通过监督层记录、监控和控制,防止意外操作,同时保持效率。 这些只是MCP潜力的一部分。通过实现流畅、上下文感知、多步骤的交互,它使AI代理更接近真正的自主工作流执行。

七 总结思考

MCP正在迅速成熟为一个强大的标准协议,将AI从孤立的"大脑"转变为多功能的"执行者"。通过简化代理如何与外部系统连接,它为更强大、交互式和用户友好的AI工作流铺平了道路。