差点被这套AI工具搞离职...搞懂MCP和Skill后,我发现宇宙的尽头是“写小作文”

0 阅读9分钟

剥开神秘面纱

前两天,隔壁组的新人小王差点被开除。这小子为了赶进度,搞了个瞎折腾的操作:把公司一个十几万行的老旧核心项目,一股脑全扔进 Cursor 里,连哄带骗地让 AI 帮他重构。结果呢?跑出来的代码简直是“地雷阵”,平时好好的系统,一到晚高峰就崩,查日志啥也没有,整个团队陪着他熬了三个通宵。我把他拉过来一看,好家伙,他连个 .cursorrules 都没建,就指望 AI 能像神仙一样懂我们公司的屎山代码。

很多兄弟对现在的 AI 编程有个天大的误解,觉得只要把代码库丢进去,AI 就能自己顿悟。其实呢?你以为的高级 Agent、各种眼花缭乱的 AI 外围工具,撕开底裤一看,本质全他娘的是 “**Markdown 小作文**”。恭喜你,在这个被各种“赋能、底层逻辑”充斥的时代,你终于发现了 AI 的本质:写小作文和当复读机。

你可能会问,那一堆 .claude.cursor 文件夹里的 JSON 和 YAML 是干啥用的?难道是给 AI 吃的?其实根本不是。我们可以把大模型当成一个极度聪明但没有任何背景知识的“实习生”。Markdown 文件就是你给实习生写的“员工手册”,里面全是大白话,比如“变量名必须用驼峰”、“遇到空指针该怎么防”。但是,实习生脑容量有限,你不能每次问他个小问题,都逼他把整本员工手册背一遍。这时候,JSON 和 YAML 就派上用场了。

这些结构化的配置文件,其实是给 Cursor 或者 Claude Code 这种客户端程序读的。它们就像是公司的“HR 路由规则”,里面写着:如果实习生今天修前端的 Bug,你就把前端的 Markdown 规则抽出来递给他;如果他在搞数据库,你就把 SQL 规范递给他。说白了,JSON 负责 “**按需挑着读**” 的调度逻辑,而真正给模型洗脑的,还是那些用自然语言写的 Markdown 小作文。没有强制的 Schema,没有死板的格式,就是你平时怎么教新人,就怎么给 AI 写这篇作文。

01-对比表:左侧为'老手喂AI',包含三个节点'按需加载'、'J.png

赋予大模型手脚

搞懂了小作文的定位,咱们再来聊聊最近火得一塌糊涂的 MCP(Model Context Protocol)。很多网上的文章一上来就给你拽英文,看得人云里雾里。咱们接点地气,把大模型比作一个被锁在小黑屋里的“最强大脑”。这货虽然上知天文下知地理,但它是个残疾,连个网都连不上,更别提帮你跑个脚本、查个数据库了。

那它怎么干活呢?全靠 MCP 给它装上“手脚”。以前,模型只能在屏幕上打字说:“你应该去查一下这个日志文件。”现在,有了 MCP 协议,模型会吐出一串特定格式的文本,意思大概是:“我要调用读文件的工具,路径是 /var/log/error.log”。注意了,模型自己是不发 HTTP 请求的,它只负责“做决策”。

真正跑腿干活的是谁?是你本地的 AI 客户端或者专门的 MCP Server。这就像是老板(大模型)在群里发了句“去楼下给我买杯咖啡”,秘书(客户端)看到后,立马跑去买,买完再把咖啡(执行结果)端给老板。在这个过程里,通信方式一般有两种:一种是 stdio(标准输入输出),就像是两个人面对面递纸条,速度极快,适合本地跑的脚本;另一种是 HTTP,就像是打电话,适合去调远端的接口,比如去“一言”拉一句骚话。

// 烂代码 vs 好代码的思维转变 // 老方案:人肉当搬运工 // 1. 人去查数据库 -> 2. 把结果复制给 AI -> 3. AI 分析 -> 4. 人再去改代码

// 新方案:MCP 自动化 // 1. AI 决定调 MySQL MCP -> 2. 客户端去查库 -> 3. 结果自动喂给 AI -> 4. AI 直接改代码

但是,老板怎么知道秘书能买咖啡呢?这就又绕回到了小作文。你写一个 MCP 服务,必须得配一段 Markdown 描述,告诉 AI:我这儿有个叫 get_hitokoto 的工具,入参是什么,出参长啥样,什么时候该用。AI 在上下文中看到这段描述,才会知道自己原来还有这项超能力。

02-流程图:3个节点从左到右用双向箭头连接。'大模型(只做决策).png

重新定义Skills

有了小作文,有了手脚,AI 就能横着走了吗?差得远呢。这就好比你给了一个刚毕业的大学生全套的维修工具,还给了他一本汽车构造指南,结果他一上手还是把发动机给拆废了。为什么?因为缺乏“专家经验”。这时候,Skill(技能包)这货就登场了。

别被 Skill 这个词唬住了,咱们拆解一下,一个完整的 Skill 其实就是三件套:“**Markdown 说明书**” + “**MCP/工具调用方式**” + “**底层执行代码**”。说白了,它就是把你多年的填坑经验,固化成了一套 AI 能看懂的 SOP(标准作业程序)。

我拿个深夜排查的真实场景举个栗子。以前咱们逆向分析一个前端加密极度复杂的网站,那叫一个苦逼。你得手动抓包,手动下载混淆的 JS,扒着眼睛看代码,看到头晕眼花再把片段复制给 AI,AI 还不一定能联系上下文。这就是典型的“人肉流水线”。

现在有了 Skill 怎么搞?我直接写个 SKILL.md,里面用大白话写清楚我的逆向方法论:

  1. 遇到无限 debugger 弹窗,先用脚本把它 patch 掉。
  2. 找加密逻辑时,重点去 Hook 系统的 fetch 方法。
  3. 定位到关键变量后,直接 Dump 内存出来分析。 这套小作文配合上 Chrome Dev MCP(让 AI 能直接操控浏览器),效果简直炸裂。AI 不再是一个陪聊的机器人,而是变成了一个完全按照你脾气秉性干活的自动化分析员。它会自动打开网站,自动下断点,自动顺着你写的 Skill 流程一步步往下挖。这种把“方法论”直接注入给机器的感觉,真的是爽翻了。

03-层级图:上方大节点'Skill(技能包)',下方包含三个并列.png

上下文工程

很多兄弟搞 AI 编程,最容易踩的坑就是“温水煮青蛙”。项目刚开始,文件少,AI 反应贼快,代码写得飞起。等项目养肥了,你随便问个问题,AI 慢得像蜗牛,最后直接报个 Context Length Exceeded 趴窝了。为啥?因为你一股脑把几十个文件全传过去了,大模型直接吃撑了。

这时候就得聊聊现在圈子里特别流行的一个词:“**上下文工程**”(Context Engineering)。听着挺唬人,其实你可以把它想象成“出门收拾行李”。你去三亚旅游,总不能把家里的羽绒服、电风扇全塞进行李箱吧?你得看天气预报(当前代码上下文),挑需要的带。

AI 客户端在发请求前,其实在背后干了极其繁琐的“行李打包”工作。它绝不会无脑塞数据。首先,它会用 Globs 或者路径匹配,把你写好的几百条 Markdown 规则过滤一遍,只留下跟当前修改文件相关的。然后,对于庞大的代码库,它会用语义检索(Embeddings),这东西就像是图书馆的索引卡片,AI 会通过向量相似度,把跟你当前问题最贴合的几个代码片段揪出来。最后,再加上被截断或者生成摘要的历史对话记录,像串糖葫芦一样拼成一个超长的字符串,也就是 Token 序列,加上鉴权和模型参数,一并发给大模型。

所以,当你每次敲下回车,觉得 AI 秒回你很神奇的时候,其实是底层的客户端用各种匹配规则和检索算法,在帮你做着极限的“历史裁剪”。只有把最精准的垃圾过滤掉,喂给 AI 最纯净的小作文,它才能给你产出神一样的代码。

04-漏斗图:展示上下文过滤。最上方宽口'海量代码库与规则',中间.png

软件形态的重构

折腾了这么久,看了那么多花里胡哨的工具,我越发觉得,咱们这帮干了十几年的老兵,思维得跟着变变了。以前我们写软件,讲究的是 API 接口,那是给冷冰冰的程序调用的;讲究的是增删改查的 UI 界面,那是给小白用户鼠标点按的。但现在呢?

我们正在经历一场软件形态的重构。传统的 API 接口,正在被重新包装成 MCP 规范,因为这是给 Agent 智能体准备的“手脚”;传统的用户使用手册,正在被改写成 Skill.md,因为这是给大模型准备的“操作指南”。甚至以后团队协作,都会出现类似 Git 的版本控制工具,专门用来记录每个程序员产生的小作文和 AI 沟通历史。每一次项目复盘,AI 都会自己总结容易出错的坑,沉淀到 Markdown 里。随着时间推移,这个仓库不仅包含代码,还包含了一个越来越懂你们业务的虚拟架构师。

实测下来,把公司的老破小项目用这套“MCP + Skill 小作文”的模式改造后,新人接手的速度起码快了 3 倍。以前新人得花两周看文档,现在 AI 带着 Skill 直接手把手教他在沙箱里跑代码。

最后说点掏心窝子的话,技术圈永远不缺新名词,今天一个赋能,明天一个抓手,后天又蹦出个什么协议。但技术没有银弹,剥开这些华丽的外衣,底层逻辑往往简单得让人想笑——就是教你怎么把一堆有结构的文本,在合适的时间,喂给一个聪明的复读机。别再盲目崇拜那些黑魔法了,踏踏实实写好你的每一段提示词,打磨好你的每一篇 Markdown。适合自己团队的,才是最牛逼的架构。

想看更多这种不装逼、说人话的技术文,别忘了关注公众号 “**爱三味**”,咱们下期接着扒!

05-矩阵图:传统软件与AI时代的映射。左列'传统概念'包含'AP.png

wx-gzh.jpg