每次接入一个新模型,都要写一堆胶水代码。
OpenAI 一套、Claude 一套、本地 Ollama 又一套。更别提调用外部工具了——数据库查询、文件操作、API 调用,每个都得单独适配。
这种重复劳动,我们在 Sealos 做 AI 能力集成时深有体会。
直到 MCP 协议出现。
这东西到底解决什么问题
MCP(Model Context Protocol)是 Anthropic 去年底开源的协议。
一句话:让 AI 模型和外部工具之间有了统一的对话方式。
以前的状况是这样的:
-
想让 Claude 读数据库?写适配层
-
想让 GPT 调内部 API?写适配层
-
换个模型?重写适配层
现在只需要:工具侧实现一次 MCP Server,模型侧支持 MCP Client,完事。
所以我说它是 AI 时代的 USB——不管什么设备,插上就能用。
为什么说这活可以不干了
不是夸张。
以前接入一个工具的工作量:理解工具 API → 设计调用逻辑 → 处理认证鉴权 → 写错误处理 → 测试联调。保守估计 2-3 天。
现在的工作量:找个现成的 MCP Server,配置一下连接参数。半小时。
差距在哪?协议标准化后,社区可以复用了。
GitHub 上已经有几百个 MCP Server 实现:PostgreSQL、Slack、Notion、本地文件系统……你想接的大部分工具,别人已经写好了。
Sealos 的一点感触
我们做云操作系统,核心理念就一个:基础设施标准化,开发者专注业务。
K8s 之于容器调度,MCP 之于 AI 集成,本质上是同一件事。
当一个领域出现被广泛认可的协议标准,就意味着这个领域开始成熟了。成熟意味着什么?意味着「造轮子」的时代结束,「用轮子」的时代开始。
我们在 Sealos 上跑的 AI 应用,现在能更快接入各种外部能力。不是因为我们技术多厉害,是因为协议层的问题被解决了。
一个建议
如果你现在还在维护一套自研的 AI 适配层,认真评估一下 MCP。
不是说马上全部重写。而是新功能、新接入,优先用 MCP 的方式。
半年后你会感谢自己。