OpenClaw + 本地模型实战:32GB Mac Mini 打造 24 小时 AI 员工
从云端 API 到本地部署,我的 AI Agent 终于不再"下班"了
一、为什么要本地部署?
用 OpenClaw 有一段时间了,但一直有个痛点:云端模型按 token 收费,而且需要联网。这意味着:
- 网络不稳定时,任务直接失败
- 敏感数据要发到第三方服务器
- 深夜跑自动化任务,API 费用累积惊人
直到我发现 OpenClaw 支持本地模型接入——游戏 changer。
二、大脑 + 肌肉混合架构
我的解决方案是混合部署:
| 场景 | 使用模型 | 原因 |
|---|---|---|
| 复杂推理 | GPT-4o / Claude | 需要最强理解能力 |
| 日常自动化 | 本地 Qwen 3.5 | 7x24 小时运行,零成本 |
| 代码生成 | 本地 CodeLlama | 隐私安全,离线可用 |
这样既能享受顶级模型的能力,又能让日常任务"自给自足"。
三、硬件要求与模型选择
我的配置:
- Mac Mini M2 Pro
- 32GB 统一内存
- 512GB SSD
可流畅运行的模型:
- Qwen 3.5 (7B/14B) - 中文表现优秀
- Llama 3.1 (8B) - 英文任务首选
- CodeLlama (7B) - 代码相关任务
实测性能:
- 7B 模型:~15 token/秒
- 14B 模型:~8 token/秒(适合非实时任务)
四、部署步骤
1. 安装 Ollama
# macOS
curl -fsSL https://ollama.com/install.sh | sh
# 拉取模型
ollama pull qwen2.5:14b
ollama pull codellama:7b
2. 配置 OpenClaw
编辑 ~/.openclaw/config.yaml:
models:
local-qwen:
provider: ollama
model: qwen2.5:14b
base_url: http://localhost:11434
local-code:
provider: ollama
model: codellama:7b
base_url: http://localhost:11434
default_model: local-qwen # 默认使用本地模型
3. 测试连接
openclaw chat "你好,请介绍一下自己"
五、实战:搭建闭环自我改进系统
这是我最得意的自动化流程:
每天 00:00 自动执行:
- 读取当天的任务日志
- 分析失败/低效的任务
- 生成改进建议
- 更新自动化脚本
- 发送报告到飞书
核心代码片段:
# ~/.openclaw/workflows/self-improve.yaml
name: 每日自我改进
cron: "0 0 * * *"
steps:
- name: 分析日志
run: analyze_logs --date yesterday
- name: 生成建议
model: local-qwen # 本地模型处理
prompt: |
基于以下任务日志,找出可以优化的地方:
{{ steps.analyze_logs.output }}
- name: 更新配置
run: apply_suggestions
- name: 发送报告
message:
channel: feishu
text: "{{ steps.generate_suggestions.output }}"
六、成本对比
| 方案 | 月度成本 | 可用性 | 隐私性 |
|---|---|---|---|
| 纯云端 API | ¥200-500 | 依赖网络 | 数据外发 |
| 纯本地 | ¥0(电费忽略) | 100% | 完全本地 |
| 混合方案 | ¥50-100 | 99% | 敏感任务本地 |
我的实际开销: 从每月 ¥300+ 降到 ¥80 左右,主要是复杂任务仍用云端。
七、注意事项
- 内存管理:32GB 同时运行 2 个 14B 模型会吃紧,建议一次只加载一个
- 首次加载慢:模型冷启动需要 10-30 秒,保持常驻更流畅
- 量化模型:用 Q4/Q5 量化版本,性能损失小,内存占用减半
- 散热:长时间推理时 Mac Mini 风扇会转,正常现象
八、未来展望
本地大模型正在快速进化:
- Apple Silicon 优化:MLX 框架让 Mac 跑模型越来越快
- 小模型大能力:Phi-4、Llama 3.2 等小模型能力逼近大模型
- 端侧 Agent:iPhone 上跑 7B 模型已经不是梦
我的下一步计划:
- 尝试 Llama 3.3 70B 的 4-bit 量化版本
- 搭建家庭 NAS + GPU 服务器,支持更大模型
- 探索多 Agent 协作,本地 + 云端混合编排
写在最后
本地部署不是为了替代云端,而是为了更灵活地组合资源。简单、重复、敏感的任务交给本地模型;复杂、创造性任务交给云端大模型——这才是 AI Agent 的终极形态。
如果你也在用 OpenClaw,强烈推荐试试本地模型。32GB 内存的 Mac Mini 已经能跑得很溜了,门槛比想象中低很多。
相关资源:
本文为实战经验总结,硬件配置仅供参考。有问题欢迎评论区交流!