AI编程最疯狂的MCP服务器你一定要试试

156 阅读7分钟

AI编程最疯狂的MCP服务器你一定要试试

我还记得我第一次听说MCP(模型上下文协议)的时候,我心想: “哈?又一个花里胡哨的缩写,这个世界已经快被这些缩写淹没了!” 但当我意识到MCP就像AI界的通用连接器——就像USB-C之于手机和笔记本电脑——我瞬间兴奋了。 再也不用折腾那些只能在某个地方工作的插件或奇怪的脚本了。 有了MCP,我可以轻松连接新工具,一下子搞定。 感觉就像是在打造一支专属的AI梦之队! 在这篇文章里,我想简单聊聊我是怎么在Cline、WindSurf,有时候还有Cursor这些工具里使用MCP服务器的。 我会用最简单的方式解释,一点都不会拿术语砸你。 另外,我还会提到一个我打算在自己电脑上尝试的个人案例(等我实际测试完再补充结果)。 那我们开始吧! 什么是MCP,我为什么要关心? 先从基础的讲起:MCP是模型上下文协议(Model Context Protocol)的缩写,这是Anthropic开发的一个开放标准。 用人话来说,就是有人想出了一个好点子,搞了个框架,让AI工具能顺畅沟通,不再闹脾气。 所以,现在如果我们想让某个工具做点事——比如读取Figma设计文件或者管理数据库——就不用每次都特意开发一个专用适配器了。只要我们的AI主界面支持MCP协议,就能直接把这个工具接入进去。 这就像插U盘一样:只要接口是USB,它就能用。 那么,MCP在哪能见到? MCP并不是藏在某个神秘的开发者实验室里。 事实上,它已经出现在各种AI工具里了,比如Cline、WindSurf、Cursor等等。 你甚至可能已经在Cline里看到一个新功能:“MCP Marketplace”市场。 那基本上是一个可以浏览和安装各种服务器的地方——这些服务器就像AI插件,可以执行特定的任务。 还有一些第三方的仓库或者目录,你可以直接复制一条命令,粘贴到AI工具的配置文件里,然后立刻激活新的功能。 这就是让我忍不住感叹—— “哇,终于来了!” 因为再也不用去折腾那些乱七八糟的脚本,或者一步步跟着复杂的教程才能让某个功能跑起来了。 我现在只要打开MCP的配置文件,粘贴一个链接,就能直接用上。 我最喜欢的MCP服务器 这些年来,我试过不少MCP服务器,其中有些还属于实验性阶段。但有几个我一直在用。 Sequential Thinker(序列思考) 一开始,我以为这东西只是个噱头: “我为什么需要一个AI按步骤思考?” 但其实,如果你用的是本地模型,或者有时候AI会犯迷糊,这个插件能让它把推理过程拆成更小的步骤。 如果你曾经遇到过AI说: “让我想想……其实,等等,我再检查一下” 那这个插件就像是更有条理的版本。 我主要在Cline和WindSurf里用它,特别是处理复杂的编码任务时。 虽然它不总是完美的,但确实能帮我避免一些AI突然跳逻辑的问题。 这里是这个MCP的npx代码: { "mcpServers": { "sequential-thinking": { "command": "npx", "args": [ "-y", "@modelcontextprotocol/server-sequential-thinking" ] } } } 你可以在这个页面找到关于这个MCP的所有信息: github.com/modelcontextprotocol/servers/tree/main/src/sequentialthinking Obsidian 集成 我是个狂热的笔记爱好者。 我几乎把所有东西都存进 Obsidian Vault——包括待办事项、写作灵感、头脑风暴的想法,甚至随机的购物清单。 Obsidian MCP 服务器是一个真正的改变者,因为我可以直接在 AI 工具(比如 Cline)里说: “嘿,把‘买狗粮’这个任务标记为已完成。” 然后它就会自动更新我的 Obsidian 笔记! 听起来可能是个小功能,但这种无缝的工作流意味着我不用在不同的应用之间来回切换。 如果你更喜欢 Jira 或 Notion,也有对应的 MCP 服务器可用。 配置 Obsidian MCP 服务器环境有两种方式。 第一种方式(推荐): 在服务器配置文件中添加 API Key: { "mcp-obsidian": { "command": "uvx", "args": [ "mcp-obsidian" ], "env": { "OBSIDIAN_API_KEY": "<your_api_key_here>" } } } 第二种方式: 在工作目录下创建一个 .env 文件,并添加以下变量: OBSIDIAN_API_KEY=your_api_key_here 这个 API Key 可以在 Obsidian 插件的配置里找到。 你可以在这里找到更多关于 Obsidian MCP 服务器的信息: github.com/MarkusPfund… E2B MCP 这个 MCP 服务器适合那些喜欢在安全环境中测试代码的人。 你可以把它想象成一个小泡泡,你的代码可以在里面运行,而不会影响你的主系统。 我发现它对测试新的 Node 模块、玩转 Python 库,或者运行示例脚本来确认是否可行特别有用。 如果你讨厌折腾 Docker 或虚拟机的麻烦,E2B Sandbox 会是你的好帮手。 你可以用 Python 或 JavaScript 来配置它。 Python 配置方法: 安装依赖: uv install 然后在 Claude Desktop 里添加服务器配置: MacOS 路径: ~/Library/Application Support/Claude/claude_desktop_config.json Windows 路径: %APPDATA%/Claude/claude_desktop_config.json 配置文件内容示例: { "mcpServers": { "e2b-mcp-server": { "command": "uvx", "args": ["e2b-mcp-server"], "env": { "E2B_API_KEY": "${e2bApiKey}" } } } } 你可以在这里找到更多关于 E2B MCP 服务器的信息: github.com/e2b-dev/mcp-server?tab=readme-ov-file Replicate MCP 如果你曾经想要直接在项目文件夹里生成 AI 图片,那么 Replicate 的服务器会是个不错的选择。 我有时候会快速生成一个博客横幅的设计概念,或者测试 AI 如何为我正在写的文章生成随机插图。 这样,我不用从网上下载图片或者折腾第三方网站,所有东西都可以在一个环境里完成。 这比想象中要方便得多。 配置 Replicate MCP 服务器 这个服务器需要 Replicate API 令牌 才能工作。 你可以在 Replicate 官网 获取 API 令牌。 实际上,有两种方法可以提供这个令牌: 方法 1(推荐):添加到 Claude Desktop 配置文件 你需要将以下内容添加到 Claude Desktop 配置文件(具体位置见 Quickstart 部分): { "mcpServers": { "replicate": { "command": "mcp-replicate", "env": { "REPLICATE_API_TOKEN": "your_token_here" } } } } 你可以在这里找到更多关于 Replicate MCP 服务器的信息: github.com/deepfates/mcp-replicate 数据库集成(Firebase、SupaBase 等) 这个功能对于自动化数据库任务非常有用。 如果我想创建一个新表、更新记录,或者快速查询点东西,我只需要用 AI 提示就能完成。 比如: “创建一个名为 ‘newsletter_signups’ 的表,包含 email、signup_date 和 referrer 三列。” 然后,它就搞定了。 当然,你需要先准备好数据库凭据或配置。 但一旦设置完成,节省的时间是巨大的。 MCP:让 AI 工具更强大的“通用翻译器” 说到底,我想强调的是,MCP 本质上是一个通用翻译器,它能让各种 AI 工具变得更强大。 无论是读取设计文件、运行代码、管理数据库,还是整理任务,它的核心目标都是减少工作流程中的摩擦。 我知道,面对一大堆可用的服务器,可能会让人无从下手。但我的建议是,从最相关的一个开始。 • 喜欢做笔记? 试试 Obsidian 的集成。 • 整天用 Node 或 Python 编码? E2B Sandbox 可能会成为你的救星。 轻松创建属于你的 MCP 服务器 还有一点我不得不强调——现在创建自己的 MCP 服务器真的非常简单,如果现有的 MCP 服务器不能满足你的需求,完全可以自己搭建一个。 当然,你可能需要稍微打磨一下,但最大的难点——框架的搭建,基本上已经帮你解决了。 你的 MCP 体验? 如果你尝试了这些 MCP 服务器,告诉我你的使用体验! 如果你已经是 MCP 的深度用户,我很想知道你最离不开哪些服务器。 分享越多,我们的工作流就会变得越高效! 这次就先聊到这里。 祝你玩转 MCP,探索愉快!

原文链接: www.cnblogs.com/jellyai/p/1…