开发者朋友们,激动人心的消息来了!
一直致力于提供极致本地开发体验的 ServBay,再次走在技术前沿!在最新的 1.21.1-beta2 版本中,我们正式集成了对阿里巴巴最新开源的 通义千问 Qwen3 系列大模型的支持!
这意味着,你现在可以通过 ServBay 内置的 Ollama 软件包,在自己的 Mac 上轻松下载并运行强大的 Qwen3 模型,进行本地 AI 应用开发、测试和探索,无需依赖云端,数据安全可控!
✨ 为什么选择 Qwen3?
通义千问 Qwen3 是阿里巴巴最新开源的高性能大语言模型系列,涵盖从 0.6B 到 235B 不同参数规模,在多个权威测评中展现出领先的性能。无论你是想进行文本创作、代码生成、知识问答还是特定领域的微调,Qwen3 都能提供强大的支持。
✅ 如何在 ServBay 中体验 Qwen3?
想要尝鲜体验?只需简单几步:
- 启用 Beta 更新通道:
-
- 打开 ServBay。
- 点击左侧导航栏的
设置
(Settings)。 - 在
更新通道
(Update Channel) 选项中,选择Beta
。
- 更新 ServBay:
-
- 点击
应用
(Apply) 按钮。 - 按照提示将 ServBay 升级到 1.21.1-beta2 或更高版本。
- 点击
- 更新 Ollama 软件包:
-
- 升级 ServBay 后,点击左侧导航栏的
软件包
(Packages)。 - 展开
AI
分类,点击Ollama
。 - 在右侧详情区域,如果看到更新提示(目标版本应为 0.6.6 或更高),点击
更新
(Update) 按钮,将 Ollama 软件包升级到最新版。
- 升级 ServBay 后,点击左侧导航栏的
🚀 开始使用 Qwen3 模型
完成上述更新后,你就可以轻松下载和使用 Qwen3 模型了:
- 浏览和下载模型:
-
点击左侧导航栏的
AI
。 -
点击
Models (Ollama)
。 -
在左侧模型列表中找到
qwen3(直接搜索更方便)
。 -
右侧会列出不同的 Qwen3 模型变体(如
qwen3:0.6b
,qwen3:8b
,qwen3:235b
等)。 -
选择你需要的模型,点击右侧的绿色下载箭头按钮即可开始下载。
- 通过 API 与 Qwen3 交互:
- 确保 Ollama 服务正在运行(在
软件包
->AI
->Ollama
查看状态)。 - 打开你的终端,使用
curl
或其他 HTTP 工具与模型交互。例如,与下载好的qwen3:7b
模型对话:
curl https://ollama.servbay.host/api/generate -d'{
"model": "qwen3:8b",
"prompt": "介绍一下 ServBay 的主要优势", "stream": false}'
现在,你就可以在本地尽情探索 Qwen3 的强大能力了!
💡 本地运行 LLM 的优势
通过 ServBay 在本地运行 Qwen3 等大模型,你能享受到:
-
数据隐私: 所有计算和数据都在本地,无需担忧隐私泄露。
-
零成本: 摆脱按 Token 计费的云服务,本地运行无额外费用。
-
离线可用: 没有网络也能进行 AI 开发和测试。
-
低延迟 : 本地响应速度更快,提升开发效率。
-
高度集成: 与 ServBay 的 Web 开发环境无缝结合。
ServBay 始终致力于为开发者提供更强大、更便捷的本地开发工具。此次率先支持 Qwen3 模型,是我们赋能本地 AI 开发的重要一步。
立即切换到 Beta 通道,更新你的 ServBay 到 1.21.1-beta2,升级 Ollama 软件包,开启本地 Qwen3**** 大模型 之旅吧!
👇 扫码加入 ServBay 开发者群,了解更多 AI 时代开发资讯