Mac龙虾保姆级完整部署指南

32 阅读4分钟

在 Mac 上本地部署近期非常火爆的开源 AI 智能体 OpenClaw(原名 Clawdbot / Moltbot)并配置好模型的流程非常清晰。OpenClaw 作为一个底层 Agent 框架,它可以作为你的“手脚”去操作电脑、读取文件、收发消息,但它需要接入一个大语言模型(LLM)作为“大脑”。

以下是在 Mac 环境下(适配 M 系列芯片与 Intel 芯片)的保姆级完整部署指南:

第一阶段:基础环境准备

OpenClaw 是基于 Node.js 运行的,因此需要先配置好环境。

1. 安装包管理器 Homebrew(如已安装可跳过) 打开 Mac 的“终端”(Terminal),粘贴以下命令并回车:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

2. 安装 Node.js OpenClaw 要求 Node.js 版本至少为 v22(官方推荐 v24+)。在终端输入:

brew install node

验证安装:输入 node -vnpm -v,确保 node 版本在 v22 以上。

3. 配置 npm 全局目录(强烈建议,避免后续权限报错) 依次在终端执行以下命令:

mkdir -p ~/.npm-global
npm config set prefix '~/.npm-global'
echo 'export PATH=~/.npm-global/bin:$PATH' >> ~/.zshrc
source ~/.zshrc

第二阶段:安装与初始化 OpenClaw

1. 全局安装 OpenClaw 在终端运行以下命令(建议使用最新版):

npm install -g openclaw@latest

(如果习惯用 pnpm,也可以用 pnpm add -g openclaw@latest)

2. 初始化并安装守护进程 运行向导,它会自动帮你把 OpenClaw 配置为后台常驻服务(这样你的 AI 助理就能 24 小时在线):

openclaw onboard --install-daemon

3. 启动本地网关

openclaw gateway --port 18789

启动后,在浏览器中访问 http://localhost:18789 即可进入 OpenClaw 的 Web 控制台页面。如果是首次或远程访问,可能需要在终端运行 openclaw token generate 获取安全 Token 并在浏览器中填入。


第三阶段:配置 LLM 模型(最重要的一步)

你可以选择 云端 API(推荐)纯本地开源模型,具体取决于你的 Mac 性能和隐私需求。

方案 A:使用云端大模型 API(强烈推荐,逻辑推理能力强)

实测中,让 OpenClaw 执行系统级命令或复杂任务时,小型本地模型容易犯错。推荐使用 DeepSeek、Claude 3.5/3.7 或 Gemini API 作为“大脑”。

  1. 获取对应模型厂商的 API Key(如 DeepSeek API 或 Google Gemini API)。
  2. 在浏览器打开的 OpenClaw Web 控制台中,找到 Settings(设置) -> Model Provider
  3. 选择对应的服务商(如 DeepSeek 或 OpenAI),填入你的 API Key。
  4. 将默认模型(Default Model)设置为对应的模型名字(例如 deepseek-chatgemini-2.5-flash)。
  5. 快捷指令方式:你也可以直接通过终端调用配置:
    openclaw onboard
    
    跟随终端的交互式提示,选择 Provider 并粘贴 Key。

方案 B:使用纯本地模型(需 M1/M2/M3/M4 芯片且内存 16GB 以上)

如果你对隐私要求极高,希望断网也能用,可以搭配 Ollama 运行本地模型(推荐 Qwen-2.5 或 Llama-3 系列)。

  1. 下载并安装Ollama for Mac
  2. 在终端拉取并运行一个本地模型(以 Qwen 2.5 7B 为例):
    ollama run qwen2.5:7b
    
  3. 回到 OpenClaw,由于部分版本对非 OpenAI 原生接口的自动识别不够完美,建议使用 OpenAI 兼容模式接入 Ollama:
    • Provider: 选择 openai-completions 或自定义 OpenAI 兼容节点。
    • API Base URL: 填入 http://127.0.0.1:11434/v1
    • API Key: 随便填(如 ollama),因为本地不需要验证。
    • Model: 填入你在 Ollama 中下载的模型名,如 qwen2.5:7b

第四阶段:测试运行与授权

1. 基础对话与执行测试 在终端里输入一条指令,测试 AI 是否成功跑通:

openclaw agent --message "帮我查看一下当前的 macOS 系统版本,并告诉我可用磁盘空间" --thinking high

如果它能准确返回你的系统信息,说明“大脑(LLM)”和“手脚(OpenClaw)”已经成功连接!

2. 开启系统权限 随着你的使用,OpenClaw 可能会去读取日历、发送邮件或执行自动化脚本。

  • 当 macOS 弹出权限请求(如“终端请求访问日历”、“请求辅助功能权限”)时,请在系统设置 -> 隐私与安全性中为其放行。
  • 较新版本的 OpenClaw 默认关闭了部分高危工具权限,如果你发现它无法执行 Shell 命令,请在 WebUI 的技能(Skills/Plugins)设置中,将 Exec Tool(执行工具)权限打开。

3. 接入聊天软件(可选) 在 Web 控制台中,你可以将 OpenClaw 绑定到你常用的聊天软件(支持 Telegram、Discord、飞书、WhatsApp、iMessage 等)。绑定后,你就可以直接在手机微信/飞书/TG上给你的 Mac 发号施令,让它在家里帮你自动处理工作了。