Gemma 4 是什么?
Google 推出的 Gemma 系列,是一类轻量但性能强的大语言模型,核心特点是:
- 相比传统大模型,更适合本地运行
- 支持私有化部署
- 在推理性能和资源占用之间做了比较好的平衡
简单来说,它不是那种“必须上云才能跑”的模型,而是普通电脑也有机会跑起来的AI模型。
小白如何在本地部署 Gemma 4
很多人一听“本地部署模型”,第一反应是:
环境配置复杂、命令一堆、门槛很高
但牧马人本地推理引擎(Herdsman AI),已经把这件事做成了“点几下就能完成”。
相比其他部署方式,它解决的是两个核心问题:
1️⃣ 门槛问题(小白也能用)
- 不需要手动配置环境
- 可视化界面操作
- 类似“应用商店”的体验
2️⃣ 性能问题(低配置也能跑)
它采用了谷歌的 TurboQuant 技术,如果你没听过这个技术,前段时间让内存价格跳水的就是它,
👉 它可以用更低的内存,跑同样规模的模型
一键下载 + 启动 Gemma 4
实际操作流程非常简单,仅三步:
①:打开模型商店,一键下载
进入牧马人推理引擎后打开模型商店,搜索 Gemma 4,点击下载。
等待Gemma 4 模型下载安装完成
安装完成,整个过程不需要额外配置。
②:模型管理 → 一键启动
下载完成后,在模型管理界面一键启动模型。
模型启动前还可以调整:
- 🧠 是否开启思考模式
- ⚡ 上下文长度可选
- ⚡ 性能模式可选节能、均衡、最佳三种模式
③:切换模型,进行对话
模型启动后在对话界面切换Gemma 4模型
模型切换后,就可以直接开始对话了,至此你就成功在本地部署Gemma 4模型了。
以上对话实测生成时间为14秒
不只是对话:还能“0 Token”运行自动化任务
除了聊天,你还可以把刚刚部署好的 Gemma 4 在 FlowyAIPC(基于Openclaw开源框架打造,拥有Openclaw的全部能力,Windows系统开箱即用,无需配置环境)使用,实现:
- 自动获取数据(比如平台后台数据)
- 操作本地文件,操作浏览器等
- 自动分析
- 自动生成内容
- 自动执行任务
也就是很多人说的: “养虾” ,而关键在于:👉 整个过程不消耗 Token(成本只有电费)
只需在FlowyAIPC顶部模型切换模块切换到Gemma 4模型