MCP 协议让我意识到:以前对接 AI 的方式全是弯路

18 阅读3分钟

说实话,这几天我有点"悔恨"的感觉。

不是后悔做了什么,而是后悔没早点想明白一件事——我们在 Sealos 上接各种 AI 能力的时候,走了太多弯路。

先说说我们踩过的坑

做云平台这么多年,对接 AI 这件事我们一直在摸索。

最早的做法是什么?每来一个新模型,就写一套适配代码。OpenAI 一套、Claude 一套、国产模型又各来一套。光是处理不同的 API 格式、认证方式、错误码,就让团队疲于奔命。

更要命的是工具调用。想让 AI 帮用户操作数据库?写个 Function。想让 AI 读取日志?再写一个。想让 AI 管理容器?继续写。每个能力都是单独对接,代码散落在各处,维护成本指数级上涨。

我们的 DevBox 产品,为了让 AI 理解开发环境的上下文,做了无数适配工作。那会儿我还觉得这是必经之路,直到看到 MCP 协议。

MCP 协议:说它是 AI 时代的 USB 真不夸张

Model Context Protocol,直译过来就是"模型上下文协议"。

这个比喻太精准了——USB 之前,每个外设都有自己的接口;MCP 之前,每个 AI 能力都有自己的对接方式。

它解决的核心问题其实很简单:统一 AI 与外部工具/数据的通信标准。

不再是你适配我、我适配你的混乱状态,而是大家都遵循同一套协议。AI 模型作为客户端,各种能力提供方作为服务端,中间用标准化的方式通信。

这意味着什么?

你开发一个 MCP Server,所有支持 MCP 的 AI 客户端都能调用。反过来,你的 AI 应用接入 MCP 协议,市面上所有 MCP 工具都能直接用。

在 Sealos 上的真实感触

我们现在在重新审视整个架构。

以前 DevBox 要让 AI 帮用户分析代码、操作环境,每个功能都是定制开发。现在的思路完全不一样了——把这些能力都封装成 MCP Server,标准化暴露出去。

好处立竿见影:

  • 用户用 Cursor 可以调用这些能力

  • 用 Claude Desktop 也能调用

  • 换成其他支持 MCP 的工具,照样能用

不再绑定特定的 AI 客户端,用户的选择权回来了。

更深的一层思考是:云平台本身就应该是各种 MCP Server 的集合。数据库能力、存储能力、计算能力、监控能力……每一个都可以是标准化的 AI 工具。

一个现实的提醒

当然,MCP 不是银弹。

协议本身还在演进,生态也在建设中。现在就想做到"所有工具即插即用"还不现实。但方向是对的,而且这个方向的确定性很高。

我的判断是:未来 AI 工具生态会像今天的 npm 或 Docker Hub 一样繁荣,而 MCP 就是那个底层协议。

所以如果你现在还在用老方式一个一个对接 AI 能力,是时候停下来想想了。

不是说之前的工作白费,而是——既然高速公路修好了,何必继续走山路?