Qwen3+MCP轻松打造智能体,CherryStudio配置指南

923 阅读7分钟

随着大规模人工智能模型的迅速崛起,模型上下文协议(MCP)——专为大模型调用设计的交互接口,正逐渐成为学术界关注的焦点。MCP允许AI Agent调用外部工具,让AI得以从文本生成转变为具备自主行动能力的智能体。这种技术突破不仅实现了AI与环境的多模态交互,更通过任务执行链条的构建,拓展了人工智能的应用范围。

Qwen3作为全球首款原生支持MCP的大模型,在模型的微调阶段,就使用了MCP协议相关的数据,使得大模型原生就知道MCP协议规范,在调用MCP工具时,大大降低大模型了出错的可能性。为构建高级AI Agent应用奠定了坚实基础。

如何让Qwen3模型快速接入MCP,构建一个能够理解你的请求并利用外部工具的AI助手呢?下文将介绍如何通过Cherry Studio高效便捷地接入你想要的MCP工具。

01

下载Cherry Studio

并配置Qwen3模型

本地部署Qwen3

官方推荐使用 SGLang 和 vLLM 等框架,为方便演示,我们以Ollama为例安装Qwen 3-32B模型。访问Ollama的官网(ollama.com/download),下载对应版本的ollama安装程序并安装:

图片

然后在Ollama的官网点击Models,可以看到Qwen3模型,点进去之后,在左侧的下拉选项中能看到多个不同量级的模型,我们以32B模型进行演示:

image-20250506145154837

Ollama安装完成之后,打开cmd或者powershell等终端工具,执行这个命令就可以下载模型了:

ollama run qwen3:32b

默认会下载模型到C盘,如果想修改下载位置,可以在终端中执行下方命令来指定模型文件的存放目录,这里以d:\ollama为例,大家可以自定义:

set OLLAMA_MODELS=d:\ollama

如果你之前安装过ollama,在执行命令后出现如下图提示,那么关闭终端,请先升级ollama到最新版本。

image-20250506155448610

更新后(本例ollama版本为0.6.8),即可正常下载:

image-20250506162622995

看到Success提示直接输入内容就能提问了:

image-20250506163158892

现在我们已经能够在本地Windows电脑上使用Qwen3-32B模型解答问题了,但在命令行中对话可能不是很美观,在复制回答与进行其他功能配置时也不太方便,我们可以通过安装一个图形化界面或客户端来解决这个问题。

我们以Cherry Studio这个AI客户端为例,安装后就能像在网页中一样和AI聊天了。当然,大家也可以选择其他的方式,比如使用page assist浏览器插件,lobechat等。

下载并安装Cherry Studio

访问Cherry Studio官网](cherry-ai.com/),下载并安装软件。

图片

在Cherry Studio中配置Qwen3本地模型

打开客户端后,点击左下角的设置,即可进行模型服务配置。在模型服务中选择Ollama,打开右上角的开关:

image-20250506154353992

点击管理,可以看到我们之前在本地已经下载好的Qwen 3-32B模型,点击+号添加即可:

image-20250506154558670

然后在模型服务下面的默认模型中,可以将默认助手,话题命名,翻译模型都改为qwen3-32b方便后续使用。

image-20250506163648153

特别注意,在部署Cherry Studio和Qwen3模型时,稳定的计算环境至关重要。由于MCP工具调用涉及实时数据处理和大模型推理,建议选择专为AI优化的服务器硬件,下文将介绍如何通过Cherry Studio高效便捷地接入你想要的MCP工具。

02

配置MCP服务

在Cherry Studio中安装配置工具

打开Cherry studio,点击左下角设置图标,找到"MCP服务器选项",点击右上角红色三角图标,安装UV和Bun。

如安装过程中遇到问题,可手动将"bun.exe、uv.exe、uvx.exe"文件放入目录:`c:\Users[你的用户名].cherrystudio\bin。

安装完成后重启Cherry studio确保工具生效。

图片

添加MCP服务

要接入一个你想要的MCP工具,只需要在支持MCP功能的客户端中写入相关配置即可。市面上有很多 MCP Market 站点,比如:

以MCP导航(mcp.so/)为例,我们可以在这里找到一些常用的 MCP 服务,例如联网搜索、地图、网页抓取等。

图片

以添加高德地图的 MCP 服务为例,前往 Amap Maps,可以在右侧的 Server Config 看到详细配置信息。

图片

找到MCP服务器管理页面,点击MCP服务器编辑,会弹出一个json编辑框。

图片

只需要在Cherry Studio的MCP配置文档中写入如下字段,注意是在第二个花括号中插入,点击确定即可。

    "amap-maps": { 
      "isActive": true,      
      "command": "npx",      
      "args": [       
        "-y",        
        "@amap/amap-maps-mcp-server"      
      ],      
      "env": {        
        "AMAP_MAPS_API_KEY": "YOUR_API_KRY"      
      },      
      "name": "amap-maps"    
    }

图片

在 Cherry Studio 的【 MCP 服务器】中设置刚刚保存的配置以及 API Key 等信息,并打开右上角的开关。

图片

03

定制你的专属智能体

打开对话窗口,打开联网模式,记得选中刚刚配置的高德 MCP 服务器。这样,我们就可以获得一个出行规划智能体,可以让 Qwen3 生成一份“五一西北环线的旅游规划”。

图片

可以看到,模型在生成时调用了地图搜索工具。

图片

还有更多热门MCP工具也是同理,我们可以自选MCP加入Cherry Studio中,例如:

  • 把Fetch MCP加入进来,就可以获得一个全自动网络爬虫智能体。
  • 如果把GitHub MCP加入进来,就可以获得一个自动搜集GitHub项目信息,并进行项目管理的GitHub智能体。
  • Filesystem MCP加入进来,就可以获得一个智能管理本地文档、自动检索归档的数字资产管家智能体
  • Magic MCP加入进来,就可以获得一个自动生成前端组件、优化代码性能的低代码开发智能体
  • SequentialThinking MCP加入进来,就可以获得一个模拟人类分步推理、增强逻辑链条的深度思考智能体
  • Playwrite MCP加入进来,就可以获得一个自动操控浏览器、处理复杂网页交互的无人值守操作智能体
  • Firecrawl MCP加入进来,就可以获得一个突破反爬限制、智能解析动态页面的高阶数据挖掘智能体
  • Time MCP加入进来,就可以获得一个跨时区调度、自动识别全球节假日的时空协调智能体

每个MCP的智能体定位均可独立运行,也可通过协议组合实现复杂任务流,比如用Time MCP协调时区+Playwrite MCP自动填写跨国报表等。

从模型接入到工具拓展,AI Agent的潜力释放离不开底层算力支撑。需求用于调用多个智能体,适用多种复杂工作场景的用户,宽恒科技作为深耕AI领域的技术服务商,推出超级智能体一体机,可免费部署SGLang或vLLM架构的Qwen3+Cherry Studio,通过大模型推理优化框架、工具链预适配等创新设计,为企业提供AI全栈部署,助力开发者快速构建可靠的智能体应用。

 👉 福利来袭掘金大礼包:《2025最全AI大模型学习资源包》无偿分享,安全可点 👈