随着大规模人工智能模型的迅速崛起,模型上下文协议(MCP)——专为大模型调用设计的交互接口,正逐渐成为学术界关注的焦点。MCP允许AI Agent调用外部工具,让AI得以从文本生成转变为具备自主行动能力的智能体。这种技术突破不仅实现了AI与环境的多模态交互,更通过任务执行链条的构建,拓展了人工智能的应用范围。
Qwen3作为全球首款原生支持MCP的大模型,在模型的微调阶段,就使用了MCP协议相关的数据,使得大模型原生就知道MCP协议规范,在调用MCP工具时,大大降低大模型了出错的可能性。为构建高级AI Agent应用奠定了坚实基础。
如何让Qwen3模型快速接入MCP,构建一个能够理解你的请求并利用外部工具的AI助手呢?下文将介绍如何通过Cherry Studio高效便捷地接入你想要的MCP工具。
01
下载Cherry Studio
并配置Qwen3模型
本地部署Qwen3
官方推荐使用 SGLang 和 vLLM 等框架,为方便演示,我们以Ollama为例安装Qwen 3-32B模型。访问Ollama的官网(ollama.com/download),下载对应版本的ollama安装程序并安装:
然后在Ollama的官网点击Models,可以看到Qwen3模型,点进去之后,在左侧的下拉选项中能看到多个不同量级的模型,我们以32B模型进行演示:
Ollama安装完成之后,打开cmd或者powershell等终端工具,执行这个命令就可以下载模型了:
ollama run qwen3:32b
默认会下载模型到C盘,如果想修改下载位置,可以在终端中执行下方命令来指定模型文件的存放目录,这里以d:\ollama为例,大家可以自定义:
set OLLAMA_MODELS=d:\ollama
如果你之前安装过ollama,在执行命令后出现如下图提示,那么关闭终端,请先升级ollama到最新版本。
更新后(本例ollama版本为0.6.8),即可正常下载:
看到Success提示直接输入内容就能提问了:
现在我们已经能够在本地Windows电脑上使用Qwen3-32B模型解答问题了,但在命令行中对话可能不是很美观,在复制回答与进行其他功能配置时也不太方便,我们可以通过安装一个图形化界面或客户端来解决这个问题。
我们以Cherry Studio这个AI客户端为例,安装后就能像在网页中一样和AI聊天了。当然,大家也可以选择其他的方式,比如使用page assist浏览器插件,lobechat等。
下载并安装Cherry Studio
访问Cherry Studio官网](cherry-ai.com/),下载并安装软件。
在Cherry Studio中配置Qwen3本地模型
打开客户端后,点击左下角的设置,即可进行模型服务配置。在模型服务中选择Ollama,打开右上角的开关:
点击管理,可以看到我们之前在本地已经下载好的Qwen 3-32B模型,点击+号添加即可:
然后在模型服务下面的默认模型中,可以将默认助手,话题命名,翻译模型都改为qwen3-32b方便后续使用。
特别注意,在部署Cherry Studio和Qwen3模型时,稳定的计算环境至关重要。由于MCP工具调用涉及实时数据处理和大模型推理,建议选择专为AI优化的服务器硬件,下文将介绍如何通过Cherry Studio高效便捷地接入你想要的MCP工具。
02
配置MCP服务
在Cherry Studio中安装配置工具
打开Cherry studio,点击左下角设置图标,找到"MCP服务器选项",点击右上角红色三角图标,安装UV和Bun。
如安装过程中遇到问题,可手动将"bun.exe、uv.exe、uvx.exe"文件放入目录:`c:\Users[你的用户名].cherrystudio\bin。
安装完成后重启Cherry studio确保工具生效。
添加MCP服务
要接入一个你想要的MCP工具,只需要在支持MCP功能的客户端中写入相关配置即可。市面上有很多 MCP Market 站点,比如:
- MCP官方服务器合集:github.com/modelcontex…
- 魔塔社区:www.modelscope.cn/mcp
- MCP Github热门导航:github.com/punkpeye/aw…
- Smithery:smithery.ai/
- MCP导航:mcp.so/
- 阿里云百炼:bailian.console.aliyun.com/?tab=mcp
以MCP导航(mcp.so/)为例,我们可以在这里找到一些常用的 MCP 服务,例如联网搜索、地图、网页抓取等。
以添加高德地图的 MCP 服务为例,前往 Amap Maps,可以在右侧的 Server Config 看到详细配置信息。
找到MCP服务器管理页面,点击MCP服务器编辑,会弹出一个json编辑框。
只需要在Cherry Studio的MCP配置文档中写入如下字段,注意是在第二个花括号中插入,点击确定即可。
"amap-maps": {
"isActive": true,
"command": "npx",
"args": [
"-y",
"@amap/amap-maps-mcp-server"
],
"env": {
"AMAP_MAPS_API_KEY": "YOUR_API_KRY"
},
"name": "amap-maps"
}
在 Cherry Studio 的【 MCP 服务器】中设置刚刚保存的配置以及 API Key 等信息,并打开右上角的开关。
03
定制你的专属智能体
打开对话窗口,打开联网模式,记得选中刚刚配置的高德 MCP 服务器。这样,我们就可以获得一个出行规划智能体,可以让 Qwen3 生成一份“五一西北环线的旅游规划”。
可以看到,模型在生成时调用了地图搜索工具。
还有更多热门MCP工具也是同理,我们可以自选MCP加入Cherry Studio中,例如:
- 把Fetch MCP加入进来,就可以获得一个全自动网络爬虫智能体。
- 如果把GitHub MCP加入进来,就可以获得一个自动搜集GitHub项目信息,并进行项目管理的GitHub智能体。
- 把Filesystem MCP加入进来,就可以获得一个智能管理本地文档、自动检索归档的数字资产管家智能体。
- 把Magic MCP加入进来,就可以获得一个自动生成前端组件、优化代码性能的低代码开发智能体。
- 把SequentialThinking MCP加入进来,就可以获得一个模拟人类分步推理、增强逻辑链条的深度思考智能体。
- 把Playwrite MCP加入进来,就可以获得一个自动操控浏览器、处理复杂网页交互的无人值守操作智能体。
- 把Firecrawl MCP加入进来,就可以获得一个突破反爬限制、智能解析动态页面的高阶数据挖掘智能体。
- 把Time MCP加入进来,就可以获得一个跨时区调度、自动识别全球节假日的时空协调智能体。
每个MCP的智能体定位均可独立运行,也可通过协议组合实现复杂任务流,比如用Time MCP协调时区+Playwrite MCP自动填写跨国报表等。
从模型接入到工具拓展,AI Agent的潜力释放离不开底层算力支撑。需求用于调用多个智能体,适用多种复杂工作场景的用户,宽恒科技作为深耕AI领域的技术服务商,推出超级智能体一体机,可免费部署SGLang或vLLM架构的Qwen3+Cherry Studio,通过大模型推理优化框架、工具链预适配等创新设计,为企业提供AI全栈部署,助力开发者快速构建可靠的智能体应用。