Ollama + OpenCLAW 在 Windows 系统的完整部署指南

0 阅读4分钟

Ollama + OpenCLAW 在 Windows 系统的完整部署指南

OpenCLAW(昵称“龙虾”)是基于 Ollama 的本地 AI 交互工具,因 Windows 原生环境存在权限、兼容性问题,官方推荐通过 WSL2(适用于 Linux 的 Windows 子系统)部署,本文汇总部署全流程、核心问题及解决方案,帮助新手快速搭建可用环境。

一、部署背景与核心问题

Windows 原生环境部署时易遇到:

  1. 权限不足:Gateway 服务安装失败(schtasks create failed: ERROR: Access is denied);
  2. 网络问题:无法访问 GitHub/Ollama 官方源,导致 WSL2/Node.js/Ollama 安装失败;
  3. 资源不足:qwen3:8b 等大模型所需内存超过 WSL2 默认分配;
  4. 版本兼容:OpenCLAW 要求 Node.js ≥22.12.0,默认版本不满足。

二、完整部署步骤(WSL2 优先方案)

1. 安装 WSL2 核心组件

(1)执行 WSL2 安装命令

管理员身份打开 Windows PowerShell,执行:

wsl --install
(2)解决网络解析失败问题

若提示 无法解析服务器的名称或地址,手动下载 Ubuntu 离线包安装:

  • 下载地址:https://aka.ms/wslubuntu2204
  • 安装命令(替换为实际下载路径):
Add-AppxPackage .\Ubuntu2204.appx
(3)重启系统并初始化 Ubuntu

重启后打开 Ubuntu 终端,设置 Linux 用户名/密码,验证 WSL2 版本:

wsl -l -v  # 确保 VERSION 为 2

2. 安装 Ollama(离线包方式避坑)

(1)下载离线压缩包
mkdir -p ~/ollama && cd ~/ollama
wget https://mirror.ghproxy.com/https://github.com/ollama/ollama/releases/download/v0.1.48/ollama-linux-amd64.tar.zst -O ollama.tgz
(2)解压并安装
sudo apt install -y zstd  # 安装 zst 解压工具
tar -I zstd -xvf ollama.tgz  # 解压 zst 格式包
sudo cp ./ollama /usr/local/bin/  # 复制二进制文件到系统目录
sudo chmod +x /usr/local/bin/ollama  # 赋予执行权限
(3)启动 Ollama 服务
ollama serve &  # 后台启动
sudo systemctl enable ollama  # 开机自启
ollama -v  # 验证版本(输出 0.17.4 左右)

3. 升级 Node.js 至兼容版本

OpenCLAW 要求 Node.js ≥22.12.0,通过手动下载二进制包升级:

mkdir -p ~/node22 && cd ~/node22
wget https://mirrors.tuna.tsinghua.edu.cn/nodejs-release/v22.13.1/node-v22.13.1-linux-x64.tar.xz -O node22.tar.xz
tar -xvf node22.tar.xz
sudo cp -r node-v22.13.1-linux-x64/* /usr/local/
node -v  # 验证版本(输出 v22.13.1)

4. 安装并启动 OpenCLAW

(1)配置 npm 国内镜像
npm config set registry https://registry.npmmirror.com
(2)安装 OpenCLAW
sudo npm install -g openclaw
(3)修复 Gateway 服务启动问题
# 清理残留进程
pkill -f openclaw-gateway
lsof -ti:18789 | xargs -r kill -9

# 启动 Gateway 服务
openclaw gateway start --bind 127.0.0.1:18789 --log-level debug
systemctl --user enable openclaw-gateway  # 开机自启
(4)启动 OpenCLAW 交互界面
openclaw tui  # 进入 TUI 界面

三、核心问题解决方案

1. 内存不足(模型加载失败)

问题:qwen3:8b 需 10.6 GiB 内存,WSL2 默认仅 8 GiB。
解决方案:

  • 临时方案:切换轻量模型 ollama pull qwen2:0.5b,在 TUI 中输入 /model qwen2:0.5b
  • 永久方案:修改 WSL2 内存配置,在 Windows 新建 ~/.wslconfig 文件:
[wsl2]
memory=12GB    # 分配 12 GiB 内存
swap=4GB       # 增大交换分区

重启 WSL2:wsl --shutdown

2. Gateway 连接异常(1006 错误)

问题:WebSocket 连接关闭,提示 gateway closed (1006 abnormal closure)
解决方案:

# 重启 Gateway 服务
systemctl --user restart openclaw-gateway
# 前台启动排查日志
openclaw gateway start --bind 127.0.0.1:18789 --log-level debug

3. Node.js 版本过低

问题:提示 openclaw requires Node >=22.12.0
解决方案:安装 22.x 版本 Node.js(见上文步骤 3),验证:node -v ≥22.12.0

四、常用操作

1. 模型管理

  • 切换模型:在 TUI 中输入 /model 模型名(如 /model qwen2:0.5b);
  • 更新模型:ollama pull 模型名(自动覆盖旧版本);
  • 新增模型:ollama pull llama3:7b,再在 TUI 中切换;
  • 查看模型:ollama list

2. 服务管理

  • 重启 Ollama:sudo systemctl restart ollama
  • 重启 Gateway:systemctl --user restart openclaw-gateway
  • 退出 TUI:Ctrl + C(Gateway 后台继续运行)。

五、部署验证

启动 OpenCLAW TUI 后,若看到以下状态则部署成功:

🦞 OpenClaw 2026.2.26
Model: qwen2:0.5b (local)
Gateway: connected (ws://127.0.0.1:18789)
Type /help for commands, Ctrl+C to exit
>

输入 介绍一下 WSL2,能收到模型回复即全链路正常。

六、总结

  1. Windows 部署优先选 WSL2,避免原生环境的权限/兼容性问题;
  2. 网络问题通过“离线包+国内镜像”解决,版本问题通过升级 Node.js 解决;
  3. 内存不足可切换轻量模型或增大 WSL2 内存分配;
  4. 核心链路:Ollama(模型管理)→ Gateway(网关)→ OpenCLAW TUI(交互),各组件启动正常即可稳定使用。