插件仍是主流,MCP 凭什么值得期待?金融、制造业落地案例告诉你答案

175 阅读14分钟

在垂类智能体平台的开发中,插件(Function Call)仍是银行、金融机构、制造业等企业客户的主流选择。但随着 Anthropic 提出的 MCP(Model Context Protocol)协议逐渐进入视野,不少从业者开始思考:这种被称为 "AI 应用 USB 端口" 的标准化协议,会成为未来工具调用的主流吗?本文将从概念、链路、与插件的关系、企业落地等维度,系统解析 MCP 的价值与发展前景。


01 MCP:重新定义 AI 与外部世界的连接方式

MCP——Model Context Protocol 模型上下文协议。Anthropic 官方定义了 MCP 是一个开放协议,旨在标准化 “应用程序如何向大模型提供上下文”。MCP 等于 AI 应用的 USB 端口,它提供了一种标准化的方式,支持对接 内容存储库、业务工具、开发环境 等多种外部服务,从而赋能 AI 大模型获取更丰富的上下文信息,生成更加精准、相关且智能的回答。

MCP 采用的 “客户端 - 服务端” 的架构,也就是 C/S 架构。任何支持 MCP 的 AI 应用(MCP Host)均可直接配置并使用应用市场的MCP Server(官方、三方),无需预编码适配,类似于 USB 设备插入即用。当LLM需要完成特定任务时,可以像“即插即用”般调用这些模块,实时获得精准的上下文支持,从而实现能力的弹性扩展。

Image

在更广阔的视角看待,MCP 其实是Prompt Engineering 发展的产物。大模型是 AI 应用的大脑,Prompt 则负责给大模型指引和参考资料。使用 Prompt Engineering 加速大模型应用的落地是如今的主流做法。具体而言,结构化的 Prompt 可以给大模型提供:

  • 额外的参考资料,如使用 RAG、联网搜索来增强大模型的回复。
  • 调用工具的能力,从而实现 Agent。如提供文件操作工具、爬虫工具、浏览器操作工具。

回顾 Function call或者RAG,都需要手工地执行工具检索、手工地将信息加入到 prompt 中,prompt 本身也需要精心地手工设计。尤其是不同大模型的Function call遵循不同的调用结构和参数格式,彼此之间基本无法互通。

Image

MCP的爆发源于它击中了Prompt Engineering的核心矛盾——动态意图理解与静态工具调用之间的割裂。传统开发模式下,Function call需要开发者预先编写工具调用逻辑、设计Prompt模板、手动管理上下文,这一过程不仅效率低下,还导致AI应用难以规模化。

02 MCP 服务链路:从用户需求到结果输出的全流程解析

MCP的核心组件有以下几点:

  1. 1. MCP主机(Host):发起请求的应用程序(如AI编程助手、IDE插件);
  2. 2. MCP客户端(Client):与服务器保持1:1连接的通信模块;
  3. 3. MCP服务器(Server):运行于本地或远程的轻量级程序,负责访问数据或执行工具(如读取本地文件、调用API);提供三种标准类型能力:Resources、Tools、Prompts。
  4. 4. 资源层:包括本地文件、数据库和远程服务(如云平台API)。本地资源(Local Resources):本地计算机中可供MCP服务器安全访问的资源,如文件、数据库。远程资源(Remote Resources):MCP服务器可以连接到的远程资源,如通过API提供的数据。

MCP的工作链路:

Image

1)User→Host系统

用户向HOST系统发送一个需要处理的问题(自然语言)

2)Host系统→MCP-Client

Host系统将用户原始问题(自然语言)和可调用工具列表(如API、数据库接口等)打包发送至MCP-Client,触发工具规划流程。

3)MCP-Client→LLM

MCP-Client请求LLM分析用户问题,生成结构化工具调用方案(包括工具选择、输入参数等),例如解析"查询北京天气"为调用WeatherAPI的参数{location: "北京"}。

4-5) MCP-Client→Host系统(审批闭环)

MCP-Client提交工具调用申请至Host系统,触发安全审批(如权限校验/风险过滤),通过后返回确认执行指令,确保操作合规性。

6)Host系统→MCP-Server Tool

Host系统向MCP-Server Tool发送工具执行命令(如REST API调用指令),携带LLM生成的标准化参数。

7)MCP-Server Tool执行

工具服务执行具体操作(如调用天气API、数据库查询等),生成原始执行结果(如JSON格式的天气数据)。

8-10) 结果逆向传递链

MCP-Server Tool→Host系统→MCP-Client→LLM,逐层返回工具执行结果,数据经校验和格式化传递,保持上下文一致性。

11)LLM生成最终响应

LLM将工具返回的原始数据转化为用户友好的自然语言(如"北京今日晴,25°C"),并补充逻辑推理或多工具结果融合。

12)Host系统→User

Host系统将LLM生成的最终响应返回给用户,完成闭环。流程中MCP协议通过标准化接口和审批机制,确保多主体间安全、高效的协同。


值得注意:

MCP协议作用范围实际上只到Client,但对于大模型(LLM)如何感知工具、调用工具并没有规范,换句话说MCP只规定了Server和Client之间的通信,但没有规定Host(Client)与大模型之间怎么交流?

对此的解决方案是:

  • 对支持 Function Call 的大模型,将 MCP 工具直接映射为其函数调用格式;
  • 对不支持 Function Call 的大模型,则通过 Prompt Engineering 引导其按 MCP 规范生成调用指令。

但需警惕一个现实问题:当连接的 MCP 服务增多时,每次对话的上下文包含的工具列表、调用历史等信息会显著增加 Token 消耗,这对金融、制造业等长对话场景可能是隐性成本。

03 MCP 与 Function Call:不是替代,而是协同进化

不少从业者会疑惑:MCP 是否会取代 Function Call?答案是否定的。两者并非对立关系,而是互补的技术形态,各自在不同场景中发挥核心价值。

实际上MCP和Function call是一起工作的关系。MCP只是一个通用协议层。具体函数调用还是需要大模型的支持,而这个协议并不是必须的,在它出现之前就有不少方式,可以直接把工具也放在系统层,直接在系统内调用就可以。

相较于MCP会彻底替代function call,我更相信MCP会推动Function Call加速进化。

Function Call 是特定大模型的专有能力,可调用外部工具,但其依赖厂商私有协议,缺乏统一标准,导致开发者需为不同平台重复适配,跨平台成本高。

MCP 的核心优势在于统一了各模型差异化的 Function Calling 标准,形成通用协议,兼容主流大模型,如同 AI 领域的 “USB-C 接口”。开发者按协议一次开发接口,即可被多模型调用,解决了兼容性问题,避免重复开发。

两者各有侧重:Function Call 适用于高频轻量任务,响应极快,是模型的 “贴身助手”,也是 MCP 链接各方的基础;MCP 则擅长 “复杂任务外包”,模型下达需求后,由 MCP Server 按需响应,无需手动干预。

短期内,MCP 不会颠覆 Function Call,反而会倒逼其更标准化、便捷化。Function Call 体现 “代码控” 思维,需精细控制工具细节;MCP 则是 “意图派” 模式,开发者只需定义能力边界,具体执行由大模型动态决策。两者协同发展,能让开发者兼顾高频任务的高效与复杂场景的灵活性。

Image

04 MCP在企业中落地案例:以金融行业为例

金融机构是 MCP 的典型受益场景。以某银行的 "智能合规问答系统" 为例,可清晰看到其如何解决传统方案的痛点。

Image

传统 RAG 方案的局限

该银行最初通过 RAG 实现内部合规知识库查询,但存在三大问题:

  • 强耦合难扩展:当需要新增知识源(如接入反洗钱新规数据库)或调整检索策略时,需重构 LLM 调用逻辑和检索流程,开发周期长达 2-3 周;
  • 权限管理碎片化:不同部门的知识库(如零售信贷合规、公司业务合规)权限规则不同,需与检索逻辑绑定,易出现权限漏洞;
  • 跨系统集成复杂:若需结合客户数据(如 "某客户的贷款申请是否符合最新合规要求"),需单独开发 CRM 系统与合规库的对接接口,重复劳动多。

MCP 方案的突破

相较于此,使用了MCP协议之后就可以“实现LLM与知识库操作、外部系统调用的解耦”:通过标准化工具定义(如query_knowledge_base)和协议接口,LLM无需关心底层知识存储与检索细节,仅需通过MCP调用工具即可获取信息;新增知识源或集成新系统时,只需开发对应的MCP工具并注册到服务器,无需修改LLM核心逻辑,大幅提升扩展性;同时,安全权限、日志审计等功能可独立部署于MCP层,与业务逻辑分离,更贴合金融行业合规要求。

MCP解决方案设计

为了满足金融企业内部知识库问答的需求,系统采用了基于 MCP(Model Context Protocol)架构设计,核心是通过 MCP 协议连接大语言模型(LLM)与企业内部知识资源,实现解耦与高效协同。系统核心模块包括:

  1. 1. 知识库构建:对 PDF、Word 等文档进行文本切段、FAQ 提取,通过 BGE-M3 等模型向量化后存入 FAISS 等本地化向量数据库(兼顾安全与效率)。
  2. 2. MCP 服务器:作为核心组件,封装知识库操作工具(如query_knowledge_base检索、add_document添加文档等),通过 MCP 协议对外提供服务,实现 LLM 与知识库解耦。
  3. 3. 客户端与 AI Agent:客户端为员工交互入口(Web 端、聊天插件等),AI Agent 负责理解自然语言提问,调用 MCP 工具检索信息,生成简洁答案,并支持多轮对话。
  4. 4. 安全与权限:集成身份认证、RBAC 权限控制、国密算法加密、操作审计日志等功能,结合 MCP 协议支持的 OAuth 2.0,保障数据安全合规。Image

MCP 服务部署与工具配置

部署方式

  • 本地化部署:核心组件(MCP 服务器、向量数据库)部署于企业私有云或物理服务器,通过 Docker 容器化管理,确保数据在内部流转,满足合规要求。
  • 云端 / 混合云部署:前端或非核心组件可部署于公有云,通过安全通道与本地核心组件通信,平衡灵活性与安全性。

核心工具配置

  • query_knowledge_base:接收自然语言问题,通过向量检索 + FAQ 匹配返回相关信息,支持设置返回数量、相似度阈值。
  • 管理类工具:add_document(添加单文档)、add_directory(批量添加目录文档)、list_documents(文档管理)等,支持知识库动态更新。

客户端交互与工具调用流程

  1. 1. 用户输入:员工通过客户端(如聊天界面)输入自然语言问题(如 “最新反洗钱政策更新?”)。
  2. 2. Agent 决策:AI Agent 解析问题意图,从 MCP 服务器获取工具列表,选择query_knowledge_base等工具。
  3. 3. 请求处理:按工具输入规范构造参数,通过 MCP 协议发送请求至服务器,服务器执行检索并返回结果。
  4. 4. 结果呈现:AI Agent 整合检索结果,生成简洁答案反馈给用户,支持多轮对话(通过 MCP 上下文机制维持连贯性)。

与企业内部系统集成

通过 MCP 协议标准化框架,“智能问答” 可与 CRM、风控、HR 等系统集成,流程如下:

  1. 1. 识别集成点:对接客户信息、风险数据、业务流程等动态数据源。
  2. 2. 封装工具:开发query_crm_data(查询客户信息)、check_risk_status(风控查询)等 MCP 工具,对接系统 API。
  3. 3. 协同调用:AI Agent 根据问题上下文,顺序 / 条件 / 并行调用工具,融合多系统数据生成答案(如结合客户画像与产品政策推荐方案)。
  4. 4. 安全合规:采用 HTTPS、数据加密、权限管控确保集成过程安全。

05 企业是否需要 MCP?平台型产品该如何布局?

  1. 1. MCP 的价值并非普适性的,需结合企业规模、业务复杂度、跨系统需求综合判断:
  • 小型应用 / 单一场景:直接用 Function Call 更高效。例如部门级的简易知识库查询工具,工具数量少(1-2 个)、调用逻辑简单,无需为协议适配额外投入;
  • 中大型应用 / 复杂场景:MCP 的价值显著。例如银行的智能客服系统,需对接 CRM、工单系统、产品库、合规库等 10 + 工具,跨多个部门协作,MCP 可降低 30%-50% 的对接成本,且后续扩展更灵活。
  1. 2. 对于服务银行、制造业等客户的平台型智能体产品,需同时承担 MCP Client 和 Server 的角色:
  • 作为 Client:兼容主流大模型的 Function Call 能力,实现与模型的对接;
  • 作为 Server:提供标准化工具市场(如金融行业专属的信贷查询、风险评估工具,制造业的设备监控、生产排期工具),让客户可直接 "接入即用"。

Image

MCP目前发展的困境,以及长远的意义和价值

  1. 1. MCP 目前仍处于发展初期,核心挑战在于生态尚未成熟:
  • 支持 MCP 的工具数量有限(虽官方称 Server 已超 6800 个,但垂直行业的深度工具仍较少);
  • 企业客户的认知与迁移成本高(习惯了 Function Call 的开发模式,切换需重新培训团队);
  • 安全性与性能的平衡需验证(跨系统调用时,如何确保数据传输安全同时不降低响应速度)。
  1. 2. 但其长远价值值得期待,如同 "AI 时代的数字神经系统":
  • 对 AI 厂商:无需再为适配工具投入精力,专注模型算法优化即可;
  • 对工具开发者:实现 "一次开发,全生态复用",例如制造业的设备诊断工具,按 MCP 开发后可被所有支持该协议的模型调用;
  • 对企业客户:推动人机交互从 GUI(图形界面)向 LUI(语言界面)进化 —— 员工无需学习系统操作,用自然语言即可调用多工具完成任务(如 "生成某产品的季度销售报告,需包含生产数据、库存情况和客户反馈")。

Anthropic 将 MCP 比作 "USB 端口" 而非 "网口" 的隐喻,正暗示其野心:不仅是连接网络,而是连接 "万物"(工具、数据、设备)。这需要解决服务端负载、跨设备安全、高扩展性等难题,而 C/S 架构恰好为此提供了基础。

结语

MCP 不是 Function Call 的替代者,而是 AI 工具调用生态的 "标准化推手"。对于银行、金融机构、制造业等对系统稳定性、合规性要求高的企业,MCP 的价值将随业务复杂度提升而凸显。短期内,插件(Function Call)仍是高频轻量任务的首选;长期看,MCP 将与 Function Call 协同,推动智能体平台进入 "低代码、高兼容、强扩展" 的新阶段。

对于垂类智能体平台开发者而言,布局 MCP 不是选择题,而是必答题 —— 它不仅是技术趋势,更是未来生态竞争的入场券。