上周有个老哥问我:Sealos 接那么多 AI 能力,你们团队得多少人专门搞集成?
我说三个。
他不信。
说实话换在一年前我也不信。那时候我们对接一个 AI 服务,光鉴权、协议适配、错误处理这些脏活累活,一个资深工程师得搞两周。现在呢?两天,还包括摸鱼时间。
这中间的变量就一个:MCP。
先说我为什么管 MCP 叫「AI 时代的 USB」
USB 出来之前,打印机、扫描仪、键盘,每个设备都有自己的接口。买个外设先得研究你主板上有没有对应的口。
AI 集成现在就是这个状态——每家 AI 服务都有自己的 API 规范、鉴权方式、数据格式。你想让 Claude 用上你的数据库?写个适配器。想让它读你的代码仓库?再写一个。想让它操作你的内部系统?又是一个。
MCP 干的事,就是统一这个接口层。
模型那边一套标准协议,工具那边一套标准协议,中间 MCP 桥接。跟 USB 一个逻辑:只要你符合 USB 规范,插上就能用。
80% 这个数字怎么来的
我们内部做过统计,对接一个新的 AI 能力原来平均需要 10 人天:
-
读文档理解 API:2 天
-
写适配代码:3 天
-
处理边界情况和错误:3 天
-
联调测试:2 天
换成 MCP 之后:
-
读 MCP server 的 schema:0.5 天
-
配置连接参数:0.5 天
-
联调:1 天
10 人天变 2 人天,省了 80%。
而且这还没算维护成本。之前每个 AI 服务升级 API,我们都得跟着改。现在中间隔了一层 MCP,上游变了跟我没关系。
在 Sealos 上跑 MCP 的体感
作为一个以 K8s 为内核的云操作系统,我们天然适合跑这种协议层服务。MCP server 本质就是个轻量级进程,扔 DevBox 里几秒钟就起来了。
有个细节挺有意思:MCP 的设计理念跟我们做 Sealos 的理念很像——把复杂的东西标准化,让用户只关心业务本身。
我们让 K8s 变得开箱即用,MCP 让 AI 集成变得即插即用。方向是一致的:降低门槛,释放生产力。
最后说点实在的
如果你现在还在一个一个手撸 AI 服务的适配器,建议认真看看 MCP。不是说它完美无缺——协议还在演进,生态还不够丰富——但方向是对的。
就像 2000 年你买电脑,USB 口多不多是个重要参考指标。
2025 年往后,MCP 的支持程度,也会是选 AI 平台的重要参考。
至少我们已经 all in 了。