在 Mac M1 上部署 OpenClaw,核心是确保 Node.js 为原生 arm64 架构、安装正确依赖并完成网关初始化。以下是结构化的分步指南,帮你快速跑通环境。
📋 环境准备(必做)
表格
| 项目 | 要求 | 操作命令 | |
|---|---|---|---|
| 系统 | macOS 12.0+(Sonoma/Ventura 等) | 无 | |
| Node.js | ≥22.0.0,原生 arm64(非 Rosetta) | 1. 安装 nvm:`curl -o- raw.githubusercontent.com/nvm-sh/nvm/… | bash <br> 2. 加载 nvm:source (或 )<br>3. 安装并使用 Node 22:nvm install 22 && nvm use 22 <br>4. 验证架构:node -e "console.log(process.arch)"→ 输出arm64` 才对 |
| 依赖 | Homebrew、Git | /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"``brew install git | |
| 可选 | Docker(用于容器化部署) | brew install --cask docker(启动 Docker Desktop 后再使用) |
🚀 三种部署方式(按推荐优先级)
方式一:官方一键脚本(推荐新手)
自动安装依赖并进入初始化向导,最省心docs.openclaw.ai。
-
执行安装命令:
bash
运行
curl -fsSL https://openclaw.ai/install.sh | bash -
按提示完成向导:
- 安全确认:输入
Yes接受风险提示 - 选择模式:推荐
QuickStart(快速起步) - 模型配置:选本地(Ollama)或云端 API(如 MiniMax/OpenAI)
- 安全确认:输入
-
启动网关:
bash
运行
openclaw gateway start -
验证:访问
http://localhost:18789,出现 OpenClaw 面板即成功。
方式二:NPM 全局安装(灵活可控)
适合想手动管理版本的场景docs.openclaw.ai。
-
安装 OpenClaw:
bash
运行
# 国内用户可先换源加速:npm config set registry https://registry.npmmirror.com npm install -g openclaw@latest -
解决 M1 编译问题(如
sharp模块报错):bash
运行
# 重置 Xcode 路径并强制重装 sudo xcode-select --reset SHARP_IGNORE_GLOBAL_LIBVIPS=1 npm install -g openclaw@latest --force -
初始化与启动:
bash
运行
openclaw onboard # 进入配置向导 openclaw gateway start # 启动网关
方式三:Docker 部署(环境隔离)
适合需要独立环境的场景docs.openclaw.ai。
-
拉取镜像并创建数据卷:
bash
运行
docker volume create openclaw-data # 初始化配置 docker run --rm -v openclaw-data:/root/.openclaw openclaw/openclaw:nightly openclaw setup -
启动容器:
bash
运行
docker run -d --name openclaw -p 18789:18789 -v openclaw-data:/root/.openclaw --restart unless-stopped openclaw/openclaw:nightly -
验证:同上访问
http://localhost:18789。
⚙️ 核心配置(本地 Ollama 模型,零成本)
-
安装 Ollama:
bash
运行
brew install ollama # 启动 Ollama 服务 ollama serve & # 拉取轻量模型(如 Llama 3.3 7B,适合 M1 16GB 内存) ollama pull llama3.3:7b{insert_element_3_} -
配置 OpenClaw 使用本地模型:
bash
运行
# 设置 Ollama API 密钥(任意非空值即可) openclaw config set models.providers.ollama.apiKey "ollama-local" # 设为默认模型 openclaw config set agents.defaults.model.primary "ollama/llama3.3:7b" # 重启网关生效 openclaw gateway restart -
验证模型状态:
bash
运行
openclaw models list openclaw models status
❌ 常见问题排查(M1 专属)
-
Node 架构错误(Rosetta 2 模拟)
-
问题:
node -e "console.log(process.arch)"输出x64 -
解决:用 nvm 重新安装 Node 22(自动选 arm64):
bash
运行
nvm uninstall 22 nvm install 22 --reinstall-packages-from=current nvm use 22
-
-
编译失败(sharp 模块)
- 解决:执行
sudo xcode-select --reset && SHARP_IGNORE_GLOBAL_LIBVIPS=1 npm install -g openclaw@latest --force
- 解决:执行
-
网关启动失败
- 检查端口占用:
lsof -i :18789,关闭占用进程或修改网关端口openclaw gateway config --port 18790 - 查看日志:
openclaw gateway logs
- 检查端口占用:
✅ 验证部署成功
- 网关状态:
openclaw gateway status→ 显示running - 访问 Web 面板:
http://localhost:18789,登录后可配置技能、测试对话 - 测试模型调用:在面板发送 “你好”,能收到回复即正常openclawlab.com
📌 后续建议
- 优先用 方式一 快速上手,后续可根据需求切换到 NPM 或 Docker 部署docs.openclaw.ai
- 本地模型推荐用 Ollama 搭配 Llama 3.3 7B/11B,兼顾性能与内存占用openclawlab.com
- 如需云端模型,可在向导中输入 API Key(如 MiniMax M2.1、OpenAI GPT-4o)