什么是MCP?技术原理是什么?教你15分钟配置本地MCP服务

0 阅读5分钟

引言

在人工智能(AI)快速发展的今天,AI模型与外部工具的集成成为提升工作效率的关键。然而,传统集成方式存在接口碎片化、开发成本高、安全风险大等问题。为解决这些痛点,MCP(Model Context Protocol,模型上下文协议)应运而生。作为一种开放标准协议,MCP为AI模型与外部工具之间建立了标准化连接通道,推动了AI从“孤立文本生成”向“行动代理”的进化。

image-20250515182853571

MCP是什么?

MCP全称:模型上下文协议Model Context Protocol,由Claude的母公司Anthropic推出的开源协议,旨在实现大型语言模型(LLM)与外部数据源和工具的集成,提供安全双向的连接。MCP通过统一的接口标准化了应用程序向LLM提供上下文的方式。

MCP的核心定位是为大型语言模型(LLM)与外部数据源、工具之间提供统一接口,实现标准化连接。其设计理念类似于“AI领域的USB-C接口”,通过协议标准化,打破数据孤岛,避免为每个数据源单独开发定制化连接器,从而降低开发成本和安全风险。

核心功能

作为 AI 大模型的标准化工具箱,允许大模型通过标准化协议与外部工具(如浏览器、文件系统、数据库、代码仓库等)自动化交互,无需手动复制粘贴信息。

MCP Server:作为 AI 与外部工具的中间层,专精于一类工作(如读写浏览器、操作 Git 仓库等),本质是运行在本地(Node.js/Python 程序)或服务器的程序。

**交互方式:**大模型通过操作系统的标准输入通道(stdio)调用 MCP Server,消息格式为特定 JSON 结构,MCP Server 通过代码或 API 访问外部工具完成任务。

传统方式

看图,传统方式需要手动截图或者复制文档,将浏览器、github、数据库等复制粘贴到AI窗口中进行对话。

image-20250515164613039

(图来自技术爬爬虾)

经过MCP servers,则通过标准化协议自动化了上面的流程。

image-20250515164700031

MCP 与 Function Call 的区别

优势:整合了各家大模型不同的 Function Call 标准,形成统一协议,支持几乎所有大模型接入(如 Claude、Deepseek 等)。

**MCP:**是 Anthropic 提出的标准化通信协议,类比为 “AI 领域的 HTTP 协议” 或 “通用插座”“USB-C 标准”。它规定了上下文与请求的结构化传递方式,要求通信格式符合 JSON-RPC 2.0 标准,用于统一 LLM 与外部数据源、工具之间的交互规范,解决数据孤岛问题。

**Function Call:**是某些大模型(如 OpenAI 的 GPT-4)提供的特有接口特性,类似 “品牌专属充电协议”。它以特定格式让 LLM 产出函数调用请求,由宿主执行对应操作并返回结果。

安装Cline

安装vscode,再安装Cline插件

下载安装vscode

如果下载了请忽略这一步

下载地址: code.visualstudio.com/

image-20250515170757463

安装cline

左侧找到插件,搜索cline

image-20250515170853172

点击安装,把cline插件安装

image-20250515170927363

设置大模型

点击use your own api key

image-20250515171120524

再点击,get openrouter api key

image-20250515171302283

再弹窗浏览器中

image-20250515171351407 image-20250515171510325

点击打开Visual Studio Code,这时候openrouter api key 自动填写了

再选择 deepseek/deepseek-chat:free 免费的大模型,再点击保存。

image-20250515172319771

再提问是否配置成功,如果有回答则说明配置成功。

image-20250515172414492

安装nodejs

MCP servers 本质就是运行在电脑上的一个nodejs程序,所以nodejs环境必不可少

nodejs下载: nodejs.org/zh-cn

image-20250515172818087 安装软件一路点下一步。

安装完成之后

代码语言:javascript

代码运行次数:0

运行

node -v
npx -v

如果都能成功的输出版本号,nodejs环境则安装成功。

image-20250515172948746

安装第一个MCP服务

回到 Cline中,点击 MCP Servers

image-20250515173128566

安装github MCP Servers

点击 install 安装

image-20250515173320331

会自动打开AI的窗口

image-20250515173402829

创建token

点击approve,再点击github的链接创建tokens

image-20250515173549484

创建token

image-20250515173747451 新建token之后,把token复制下来

image-20250515175313886

把token粘贴到cline中,点回车,再点save

image-20250515175504648 MAC系统这步就完成了,Window电脑还需要改一些配置

修改配置

代码语言:javascript

代码运行次数:0

运行

{
  "mcpServers": {
    "github.com/modelcontextprotocol/servers/tree/main/src/github": {
      "command": "npx",
      "args": [
        "-y",
        "@modelcontextprotocol/server-github"
      ],
      "env": {
        "GITHUB_PERSONAL_ACCESS_TOKEN": "ghp_XXXXXXX"
      },
      "disabled": false,
      "autoApprove": []
    }
  }
}
​

改成

代码语言:javascript

代码运行次数:0

运行

{
  "mcpServers": {
    "github.com/modelcontextprotocol/servers/tree/main/src/github": {
      "command": "cmd",
      "args": [
        "/c",
        "npx",
        "-y",
        "@modelcontextprotocol/server-github"
      ],
      "env": {
        "GITHUB_PERSONAL_ACCESS_TOKEN": "ghp_XXXXXXXXX"
      },
      "disabled": false,
      "autoApprove": []
    }
  }
}
​

如图,点击保存

image-20250515175933460

在已安装中查看

image-20250515180012619

自动创建test-repo的github仓库

点击Approve 会

image-20250515180339190

再查看我的github中创建了一个 test-repo的仓库。

image-20250515180956668

提问“我的名字是funet8,我在github中有哪些仓库”

输出结果

image-20250515181347599

结尾

MCP通过标准化交互协议,打通了AI与工具间的壁垒,为高效、安全的智能自动化奠定了基础,是AI技术实用化的重要里程碑。随着MCP的普及,AI将更加深入地融入各个行业,成为真正的数字工作流协作者。未来,MCP有望推动构建可组合的智能系统,让人类通过自然语言指令驱动复杂工具链,重塑软件开发、设计及自动化流程。

无论是开发者还是普通用户,掌握MCP的配置和使用方法,都将为你在AI时代的工作和学习带来巨大的便利。赶快行动起来,体验MCP带来的智能化变革吧!

原文地址:https://cloud.tencent.com/developer/article/2520561