Mac M1 上部署 OpenClaw

6 阅读3分钟

在 Mac M1 上部署 OpenClaw,核心是确保 Node.js 为原生 arm64 架构、安装正确依赖并完成网关初始化。以下是结构化的分步指南,帮你快速跑通环境。

📋 环境准备(必做)

表格

项目要求操作命令
系统macOS 12.0+(Sonoma/Ventura 等)
Node.js≥22.0.0,原生 arm64(非 Rosetta)1. 安装 nvm:`curl -o- raw.githubusercontent.com/nvm-sh/nvm/…bash <br> 2. 加载 nvm:source /.zshrc(或 /.bashrc)<br>3. 安装并使用 Node 22:nvm install 22 && nvm use 22 <br>4. 验证架构:node -e "console.log(process.arch)"→ 输出arm64` 才对
依赖Homebrew、Git/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"``brew install git
可选Docker(用于容器化部署)brew install --cask docker(启动 Docker Desktop 后再使用)

🚀 三种部署方式(按推荐优先级)

方式一:官方一键脚本(推荐新手)

自动安装依赖并进入初始化向导,最省心docs.openclaw.ai。

  1. 执行安装命令:

    bash

    运行

    curl -fsSL https://openclaw.ai/install.sh | bash
    
  2. 按提示完成向导:

    • 安全确认:输入 Yes 接受风险提示
    • 选择模式:推荐 QuickStart(快速起步)
    • 模型配置:选本地(Ollama)或云端 API(如 MiniMax/OpenAI)
  3. 启动网关:

    bash

    运行

    openclaw gateway start
    
  4. 验证:访问 http://localhost:18789,出现 OpenClaw 面板即成功。

方式二:NPM 全局安装(灵活可控)

适合想手动管理版本的场景docs.openclaw.ai。

  1. 安装 OpenClaw:

    bash

    运行

    # 国内用户可先换源加速:npm config set registry https://registry.npmmirror.com
    npm install -g openclaw@latest
    
  2. 解决 M1 编译问题(如 sharp 模块报错):

    bash

    运行

    # 重置 Xcode 路径并强制重装
    sudo xcode-select --reset
    SHARP_IGNORE_GLOBAL_LIBVIPS=1 npm install -g openclaw@latest --force
    
  3. 初始化与启动:

    bash

    运行

    openclaw onboard  # 进入配置向导
    openclaw gateway start  # 启动网关
    

方式三:Docker 部署(环境隔离)

适合需要独立环境的场景docs.openclaw.ai。

  1. 拉取镜像并创建数据卷:

    bash

    运行

    docker volume create openclaw-data
    # 初始化配置
    docker run --rm -v openclaw-data:/root/.openclaw openclaw/openclaw:nightly openclaw setup
    
  2. 启动容器:

    bash

    运行

    docker run -d --name openclaw -p 18789:18789 -v openclaw-data:/root/.openclaw --restart unless-stopped openclaw/openclaw:nightly
    
  3. 验证:同上访问 http://localhost:18789

⚙️ 核心配置(本地 Ollama 模型,零成本)

  1. 安装 Ollama:

    bash

    运行

    brew install ollama
    # 启动 Ollama 服务
    ollama serve &
    # 拉取轻量模型(如 Llama 3.3 7B,适合 M1 16GB 内存)
    ollama pull llama3.3:7b{insert_element_3_}
    
  2. 配置 OpenClaw 使用本地模型:

    bash

    运行

    # 设置 Ollama API 密钥(任意非空值即可)
    openclaw config set models.providers.ollama.apiKey "ollama-local"
    # 设为默认模型
    openclaw config set agents.defaults.model.primary "ollama/llama3.3:7b"
    # 重启网关生效
    openclaw gateway restart
    
  3. 验证模型状态:

    bash

    运行

    openclaw models list
    openclaw models status
    

❌ 常见问题排查(M1 专属)

  1. Node 架构错误(Rosetta 2 模拟)

    • 问题:node -e "console.log(process.arch)" 输出 x64

    • 解决:用 nvm 重新安装 Node 22(自动选 arm64):

      bash

      运行

      nvm uninstall 22
      nvm install 22 --reinstall-packages-from=current
      nvm use 22
      
  2. 编译失败(sharp 模块)

    • 解决:执行 sudo xcode-select --reset && SHARP_IGNORE_GLOBAL_LIBVIPS=1 npm install -g openclaw@latest --force
  3. 网关启动失败

    • 检查端口占用:lsof -i :18789,关闭占用进程或修改网关端口 openclaw gateway config --port 18790
    • 查看日志:openclaw gateway logs

✅ 验证部署成功

  1. 网关状态:openclaw gateway status → 显示 running
  2. 访问 Web 面板:http://localhost:18789,登录后可配置技能、测试对话
  3. 测试模型调用:在面板发送 “你好”,能收到回复即正常openclawlab.com

📌 后续建议

  • 优先用 方式一 快速上手,后续可根据需求切换到 NPM 或 Docker 部署docs.openclaw.ai
  • 本地模型推荐用 Ollama 搭配 Llama 3.3 7B/11B,兼顾性能与内存占用openclawlab.com
  • 如需云端模型,可在向导中输入 API Key(如 MiniMax M2.1、OpenAI GPT-4o)