深度解析MCP协议

80 阅读6分钟

图片

全面解读MCP协议:从技术原理到实践应用

©作者| Monalisa

来源| 神州问学

什么是MCP协议

MCP(ModelContextProtocol)是Anthropic在2024年11月推出的开放协议,旨在标准化大型语言模型与外部数据源、工具之间的交互方式。简单来说,MCP就是AI大模型的"万能插座"或"通用语言",让不同的大模型能够以统一方式调用外部工具、获取实时数据并与各类服务交互。

类比而言,如果把大模型比作一台高性能电脑,那么MCP就是它的USB接口——正如USB允许电脑连接摄像头、打印机等外设一样,MCP允许AI模型"接入"天气预报、数据库查询、代码执行等各种外部服务。这种连接不仅是单向的数据获取,更是双向的交互通道,使得AI不仅能"读取"信息,还能"操作"现实世界中的工具和系统。

**
**

MCP协议技术架构

MCP采用客户端-服务器架构,主要由三个核心组件构成:

1.MCP主机(MCP Host): 任何提供 AI 交互环境、访问外部工具和数据源并运行 MCP Client 的 AI 应用(如 Claude 桌面版、Cursor)。

2.MCP客户端(MCP Client): 在 Host 内运行,实现与 MCP Servers 的通信。

3.MCP服务器(MCP Server): 对外开放特定能力,并提供对数据源的访问权限,包括:

Tools: 允许服务器公开可执行的函数,这些函数可由客户端调用并由 LLM 使用来执行操作。Tool 不仅人让 LLM 能从外部获取信息,还能执行写入或操作,为 LLM 提供真正的行动力。

Resources: 服务器希望提供给客户端的任何类型的只读数据。这可能包括:文件内容、数据库记录、图片、日志等等。

Prompts: 由服务器定义的可重用的模板,用户可以选择这些模板来引导或标准化与 LLM 的交互过程。例如,Git MCP Server 可以提供一个“生成提交信息”的提示模板,用户可以用它来创建标准化的提交消息。

图片

**MCP的实战应用
**

初始化项目

使用 MCP Python SDK 来编写项目,使用 uv 来管理 Python 项目依赖。

1.安装 uv 可以参考 Installing uv。MacOS 用户可以使用 brew 进行安装:

图片

2.执行以下命令初始化项目:

图片

3.添加依赖:

图片

4.创建 server.py 文件,接下来将会在该文件中编写代码:

图片

在 Claude Desktop 中安装 MCP Server

1.在.evn 文件中设置好 Elasticsearch 的连接信息。

图片

2.可以执行以下命令将 MCP Server 安装到 Claude Desktop 中:

--env-file 参数指定了.evn   文件的路径,用于加载环境变量。

--with-editable 参数指定了 uv 依赖管理文件  所在的目录pyproject.toml,用于安装项目的依赖。

图片

该命令会自动帮助你在cluade_desktop_config.json文件中添加 MCP Server 的配置。

Elasticsearch 客户端配置

首先创建 Elasticsearch 客户端,用于和 Elasticsearch 服务器进行交互。

图片

初始化FastMCP Server

以下代码创建一个名为 mcp的 FastMCP 对象

图片

添加 Tool

**
**

1.Tool 定义了允许 LLM 可以调用 MCP Server 执行的操作,除了查询以外,还可以执行写入操作。接下来定义了两个 Tool:

list_indices: 列出所有可用的索引。

get_index: 获取指定索引的详细信息。

使用@mcp.tool() 装饰器将这两个函数标记为 MCP 的 Tool。

图片

2.然后重启 Claude Desktop,一切正常的话,你应该能在输入框的右下角看到一个锤子图标。点击锤子图标,可以看到 Elasticsearch MCP Server 提供的工具信息。

图片

添加Resource(资源)

1.Resource 定义了 LLM 可以访问只读的数据源,可以用于为 LLM 提供上下文内容。在这个示例中,我们定义了两个资源:

es://logs:允许 LLM 访问 Elasticsearch 容器的日志信息,通过 Docker 命令获取日志内容。

file://docker-compose.yaml:允许 LLM 访问项目的docker-compose.yaml文件内容。

使用@mcp.resource() 装饰器将这些函数标记为 MCP 的 Resource,装饰器参数指定了 Resource 的 URI。

图片

2.重启 Claude,点击插头图标,可以看到 Elasticsearch MCP Server 提供的 Resource。

图片

添加Prompt(提示)

1.我们定义一个名为es_prompt 的提示模板,引导 LLM 从多个维度(如索引设置、搜索优化、数据建模和扩展性等)对索引进行分析。

图片

2.重启 Claude Desktop,点击插头图标,选择 es_prompt,并输入待分析的索引 student。

图片

**
**

应用实例

场景描述: 现在假设我们有这样一个需求,读取 movies.csv 文件,将文档写入 Elasticsearch 的 movies 索引中,如果电影票房超过 1 亿美元,则在文档中设置一个额外的字段 isPopular: true,否则设置为isPopular: false。

在过去,我们可能会考虑使用 Elasticsearch Ingest Pipeline 的 Script processor 来实现这一需求。

现在我们则可以通过 Resource 向 LLM 提供要读取的 movies.csv 文件,LLM 会对电影票房进行计算,然后设置文档的isPopular:字段值,最后调用write_documents Tool 来将文档写入 Elasticsearch 的 movies 索引中。

具体的实现代码如下:

图片

之后重启 Claude,选择 file://movies.csv/  Resource,然后向 Claude 发送以下指令:将文件中的电影写入 Elasticserach 中的 movies 索引,如果电影票房超过 1 亿美元,那么在该文档中设置一个额外的字段 isPopular: true,否则设置为 false。

图片

可以看到 Claude 顺利地完成了我们指定的任务。

图片

在 Kibana 中查询 movies 索引,可以看到我们的数据已经成功写入,并且 isPopular 字段也已经被正确设置了。

图片

通过上述这个组合示例,展示了如何让 LLM 利用这些组件完成更复杂的数据处理任务,充分体现了 MCP 在提升 LLM 应用开发效率方面的优势。

行业影响预测

MCP协议的诞生标志着AI应用进入新阶段——从封闭的对话系统,走向开放的、能真正改变工作流的智能代理。它不仅是技术协议,更是重塑人机协作范式的钥匙。如同USB标准催生了外设产业的繁荣,MCP有望孕育出全新的AI工具生态。

对于开发者,现在正是参与这一变革的良机:无论是构建垂直领域的MCP服务器,还是开发创新的客户端体验,都能在这片新蓝海中找到位置。

对于企业用户,MCP提供了将AI深度融入业务流程的标准化路径,同时保障数据安全。

可以预见,随着MCP生态的成熟,"连接"将成为AI的新能力维度——能无缝接入多少工具、多广的数据,决定了智能体的实际价值边界。

这场由MCP开启的连接革命,或许正是通向真正通用人工智能的关键一步。