Ollama + OpenCLAW 在 Windows 系统的完整部署指南
OpenCLAW(昵称“龙虾”)是基于 Ollama 的本地 AI 交互工具,因 Windows 原生环境存在权限、兼容性问题,官方推荐通过 WSL2(适用于 Linux 的 Windows 子系统)部署,本文汇总部署全流程、核心问题及解决方案,帮助新手快速搭建可用环境。
一、部署背景与核心问题
Windows 原生环境部署时易遇到:
- 权限不足:Gateway 服务安装失败(
schtasks create failed: ERROR: Access is denied); - 网络问题:无法访问 GitHub/Ollama 官方源,导致 WSL2/Node.js/Ollama 安装失败;
- 资源不足:qwen3:8b 等大模型所需内存超过 WSL2 默认分配;
- 版本兼容:OpenCLAW 要求 Node.js ≥22.12.0,默认版本不满足。
二、完整部署步骤(WSL2 优先方案)
1. 安装 WSL2 核心组件
(1)执行 WSL2 安装命令
以管理员身份打开 Windows PowerShell,执行:
wsl --install
(2)解决网络解析失败问题
若提示 无法解析服务器的名称或地址,手动下载 Ubuntu 离线包安装:
- 下载地址:
https://aka.ms/wslubuntu2204; - 安装命令(替换为实际下载路径):
Add-AppxPackage .\Ubuntu2204.appx
(3)重启系统并初始化 Ubuntu
重启后打开 Ubuntu 终端,设置 Linux 用户名/密码,验证 WSL2 版本:
wsl -l -v # 确保 VERSION 为 2
2. 安装 Ollama(离线包方式避坑)
(1)下载离线压缩包
mkdir -p ~/ollama && cd ~/ollama
wget https://mirror.ghproxy.com/https://github.com/ollama/ollama/releases/download/v0.1.48/ollama-linux-amd64.tar.zst -O ollama.tgz
(2)解压并安装
sudo apt install -y zstd # 安装 zst 解压工具
tar -I zstd -xvf ollama.tgz # 解压 zst 格式包
sudo cp ./ollama /usr/local/bin/ # 复制二进制文件到系统目录
sudo chmod +x /usr/local/bin/ollama # 赋予执行权限
(3)启动 Ollama 服务
ollama serve & # 后台启动
sudo systemctl enable ollama # 开机自启
ollama -v # 验证版本(输出 0.17.4 左右)
3. 升级 Node.js 至兼容版本
OpenCLAW 要求 Node.js ≥22.12.0,通过手动下载二进制包升级:
mkdir -p ~/node22 && cd ~/node22
wget https://mirrors.tuna.tsinghua.edu.cn/nodejs-release/v22.13.1/node-v22.13.1-linux-x64.tar.xz -O node22.tar.xz
tar -xvf node22.tar.xz
sudo cp -r node-v22.13.1-linux-x64/* /usr/local/
node -v # 验证版本(输出 v22.13.1)
4. 安装并启动 OpenCLAW
(1)配置 npm 国内镜像
npm config set registry https://registry.npmmirror.com
(2)安装 OpenCLAW
sudo npm install -g openclaw
(3)修复 Gateway 服务启动问题
# 清理残留进程
pkill -f openclaw-gateway
lsof -ti:18789 | xargs -r kill -9
# 启动 Gateway 服务
openclaw gateway start --bind 127.0.0.1:18789 --log-level debug
systemctl --user enable openclaw-gateway # 开机自启
(4)启动 OpenCLAW 交互界面
openclaw tui # 进入 TUI 界面
三、核心问题解决方案
1. 内存不足(模型加载失败)
问题:qwen3:8b 需 10.6 GiB 内存,WSL2 默认仅 8 GiB。
解决方案:
- 临时方案:切换轻量模型
ollama pull qwen2:0.5b,在 TUI 中输入/model qwen2:0.5b; - 永久方案:修改 WSL2 内存配置,在 Windows 新建
~/.wslconfig文件:
[wsl2]
memory=12GB # 分配 12 GiB 内存
swap=4GB # 增大交换分区
重启 WSL2:wsl --shutdown。
2. Gateway 连接异常(1006 错误)
问题:WebSocket 连接关闭,提示 gateway closed (1006 abnormal closure)。
解决方案:
# 重启 Gateway 服务
systemctl --user restart openclaw-gateway
# 前台启动排查日志
openclaw gateway start --bind 127.0.0.1:18789 --log-level debug
3. Node.js 版本过低
问题:提示 openclaw requires Node >=22.12.0。
解决方案:安装 22.x 版本 Node.js(见上文步骤 3),验证:node -v ≥22.12.0。
四、常用操作
1. 模型管理
- 切换模型:在 TUI 中输入
/model 模型名(如/model qwen2:0.5b); - 更新模型:
ollama pull 模型名(自动覆盖旧版本); - 新增模型:
ollama pull llama3:7b,再在 TUI 中切换; - 查看模型:
ollama list。
2. 服务管理
- 重启 Ollama:
sudo systemctl restart ollama; - 重启 Gateway:
systemctl --user restart openclaw-gateway; - 退出 TUI:
Ctrl + C(Gateway 后台继续运行)。
五、部署验证
启动 OpenCLAW TUI 后,若看到以下状态则部署成功:
🦞 OpenClaw 2026.2.26
Model: qwen2:0.5b (local)
Gateway: connected (ws://127.0.0.1:18789)
Type /help for commands, Ctrl+C to exit
>
输入 介绍一下 WSL2,能收到模型回复即全链路正常。
六、总结
- Windows 部署优先选 WSL2,避免原生环境的权限/兼容性问题;
- 网络问题通过“离线包+国内镜像”解决,版本问题通过升级 Node.js 解决;
- 内存不足可切换轻量模型或增大 WSL2 内存分配;
- 核心链路:Ollama(模型管理)→ Gateway(网关)→ OpenCLAW TUI(交互),各组件启动正常即可稳定使用。