ServBay 重磅更新:率先支持本地运行阿里通义千问 Qwen3 大模型!

51 阅读3分钟

开发者朋友们,激动人心的消息来了!

一直致力于提供极致本地开发体验的 ServBay,再次走在技术前沿!在最新的 1.21.1-beta2 版本中,我们正式集成了对阿里巴巴最新开源的 通义千问 Qwen3 系列大模型的支持!

这意味着,你现在可以通过 ServBay 内置的 Ollama 软件包,在自己的 Mac 上轻松下载并运行强大的 Qwen3 模型,进行本地 AI 应用开发、测试和探索,无需依赖云端,数据安全可控!

image.png

✨ 为什么选择 Qwen3?

通义千问 Qwen3 是阿里巴巴最新开源的高性能大语言模型系列,涵盖从 0.6B 到 235B 不同参数规模,在多个权威测评中展现出领先的性能。无论你是想进行文本创作、代码生成、知识问答还是特定领域的微调,Qwen3 都能提供强大的支持。

✅ 如何在 ServBay 中体验 Qwen3?

想要尝鲜体验?只需简单几步:

  • 启用 Beta 更新通道:
    1. 打开 ServBay。
    2. 点击左侧导航栏的 设置 (Settings)。
    3. 在 更新通道 (Update Channel) 选项中,选择 Beta
  • 更新 ServBay:
    1. 点击 应用 (Apply) 按钮。
    2. 按照提示将 ServBay 升级到 1.21.1-beta2 或更高版本。
  • 更新 Ollama 软件包:
    1. 升级 ServBay 后,点击左侧导航栏的 软件包 (Packages)。
    2. 展开 AI 分类,点击 Ollama
    3. 在右侧详情区域,如果看到更新提示(目标版本应为 0.6.6 或更高),点击 更新 (Update) 按钮,将 Ollama 软件包升级到最新版。

🚀 开始使用 Qwen3 模型

完成上述更新后,你就可以轻松下载和使用 Qwen3 模型了:

  • 浏览和下载模型:
  1. 点击左侧导航栏的 AI

  2. 点击 Models (Ollama)

  3. 在左侧模型列表中找到 qwen3(直接搜索更方便)

  4. 右侧会列出不同的 Qwen3 模型变体(如 qwen3:0.6bqwen3:8bqwen3:235b 等)。

  5. 选择你需要的模型,点击右侧的绿色下载箭头按钮即可开始下载。

  • 通过 API 与 Qwen3 交互:
  1. 确保 Ollama 服务正在运行(在 软件包 -> AI -> Ollama 查看状态)。
  2. 打开你的终端,使用 curl 或其他 HTTP 工具与模型交互。例如,与下载好的 qwen3:7b 模型对话:
curl https://ollama.servbay.host/api/generate -d'{  
"model""qwen3:8b",  
"prompt""介绍一下 ServBay 的主要优势",  "stream"false}'

现在,你就可以在本地尽情探索 Qwen3 的强大能力了!

image.png

💡 本地运行 LLM 的优势

通过 ServBay 在本地运行 Qwen3 等大模型,你能享受到:

  • 数据隐私:  所有计算和数据都在本地,无需担忧隐私泄露。

  • 零成本:  摆脱按 Token 计费的云服务,本地运行无额外费用。

  • 离线可用:  没有网络也能进行 AI 开发和测试。

  • 低延迟 :  本地响应速度更快,提升开发效率。

  • 高度集成:  与 ServBay 的 Web 开发环境无缝结合。

ServBay 始终致力于为开发者提供更强大、更便捷的本地开发工具。此次率先支持 Qwen3 模型,是我们赋能本地 AI 开发的重要一步。

立即切换到 Beta 通道,更新你的 ServBay 到 1.21.1-beta2,升级 Ollama 软件包,开启本地 Qwen3**** 大模型 之旅吧!

👇 扫码加入 ServBay 开发者群,了解更多 AI 时代开发资讯

image.png