OpenClaw + 本地模型实战:32GB Mac Mini 打造 24 小时 AI 员工

3 阅读4分钟

OpenClaw + 本地模型实战:32GB Mac Mini 打造 24 小时 AI 员工

从云端 API 到本地部署,我的 AI Agent 终于不再"下班"了

一、为什么要本地部署?

用 OpenClaw 有一段时间了,但一直有个痛点:云端模型按 token 收费,而且需要联网。这意味着:

  • 网络不稳定时,任务直接失败
  • 敏感数据要发到第三方服务器
  • 深夜跑自动化任务,API 费用累积惊人

直到我发现 OpenClaw 支持本地模型接入——游戏 changer

二、大脑 + 肌肉混合架构

我的解决方案是混合部署

场景使用模型原因
复杂推理GPT-4o / Claude需要最强理解能力
日常自动化本地 Qwen 3.57x24 小时运行,零成本
代码生成本地 CodeLlama隐私安全,离线可用

这样既能享受顶级模型的能力,又能让日常任务"自给自足"。

三、硬件要求与模型选择

我的配置:

  • Mac Mini M2 Pro
  • 32GB 统一内存
  • 512GB SSD

可流畅运行的模型:

  • Qwen 3.5 (7B/14B) - 中文表现优秀
  • Llama 3.1 (8B) - 英文任务首选
  • CodeLlama (7B) - 代码相关任务

实测性能:

  • 7B 模型:~15 token/秒
  • 14B 模型:~8 token/秒(适合非实时任务)

四、部署步骤

1. 安装 Ollama

# macOS
curl -fsSL https://ollama.com/install.sh | sh

# 拉取模型
ollama pull qwen2.5:14b
ollama pull codellama:7b

2. 配置 OpenClaw

编辑 ~/.openclaw/config.yaml

models:
  local-qwen:
    provider: ollama
    model: qwen2.5:14b
    base_url: http://localhost:11434
    
  local-code:
    provider: ollama
    model: codellama:7b
    base_url: http://localhost:11434

default_model: local-qwen  # 默认使用本地模型

3. 测试连接

openclaw chat "你好,请介绍一下自己"

五、实战:搭建闭环自我改进系统

这是我最得意的自动化流程:

每天 00:00 自动执行:

  1. 读取当天的任务日志
  2. 分析失败/低效的任务
  3. 生成改进建议
  4. 更新自动化脚本
  5. 发送报告到飞书

核心代码片段:

# ~/.openclaw/workflows/self-improve.yaml
name: 每日自我改进
cron: "0 0 * * *"
steps:
  - name: 分析日志
    run: analyze_logs --date yesterday
    
  - name: 生成建议
    model: local-qwen  # 本地模型处理
    prompt: |
      基于以下任务日志,找出可以优化的地方:
      {{ steps.analyze_logs.output }}
      
  - name: 更新配置
    run: apply_suggestions
    
  - name: 发送报告
    message:
      channel: feishu
      text: "{{ steps.generate_suggestions.output }}"

六、成本对比

方案月度成本可用性隐私性
纯云端 API¥200-500依赖网络数据外发
纯本地¥0(电费忽略)100%完全本地
混合方案¥50-10099%敏感任务本地

我的实际开销: 从每月 ¥300+ 降到 ¥80 左右,主要是复杂任务仍用云端。

七、注意事项

  1. 内存管理:32GB 同时运行 2 个 14B 模型会吃紧,建议一次只加载一个
  2. 首次加载慢:模型冷启动需要 10-30 秒,保持常驻更流畅
  3. 量化模型:用 Q4/Q5 量化版本,性能损失小,内存占用减半
  4. 散热:长时间推理时 Mac Mini 风扇会转,正常现象

八、未来展望

本地大模型正在快速进化:

  • Apple Silicon 优化:MLX 框架让 Mac 跑模型越来越快
  • 小模型大能力:Phi-4、Llama 3.2 等小模型能力逼近大模型
  • 端侧 Agent:iPhone 上跑 7B 模型已经不是梦

我的下一步计划:

  • 尝试 Llama 3.3 70B 的 4-bit 量化版本
  • 搭建家庭 NAS + GPU 服务器,支持更大模型
  • 探索多 Agent 协作,本地 + 云端混合编排

写在最后

本地部署不是为了替代云端,而是为了更灵活地组合资源。简单、重复、敏感的任务交给本地模型;复杂、创造性任务交给云端大模型——这才是 AI Agent 的终极形态。

如果你也在用 OpenClaw,强烈推荐试试本地模型。32GB 内存的 Mac Mini 已经能跑得很溜了,门槛比想象中低很多。

相关资源:


本文为实战经验总结,硬件配置仅供参考。有问题欢迎评论区交流!