第一步:找到 OpenClaw 配置文件位置(你 WSL 里的路径)
在 WSL 终端输入这行 直接定位:
bash
运行
find ~ -name "openclaw.json" 2>/dev/null
它会输出类似这样的路径:
plaintext
/home/wll920816/.openclaw/openclaw.json
第二步:直接编辑配置文件(正确命令)
把上面找到的路径复制下来,执行:
bash
运行
nano /home/wll920816/.openclaw/openclaw.json
第三步:把文件内容全部替换成我给你的最终配置
直接复制粘贴下面这段 完整覆盖:
json
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://172.23.128.1:11434",
"api": "ollama"
}
},
"definitions": [
{
"id": "qwen3:1.7b",
"provider": "ollama",
"name": "qwen3:1.7b"
}
],
"defaultModel": "ollama/qwen3:1.7b"
},
"channels": {
"default": "cli"
}
}
第四步:保存并退出
在 nano 编辑器里:
- Ctrl + O → 回车(保存)
- Ctrl + X → 退出
第五步:验证是否成功
bash
运行
openclaw models list
如果出现
plaintext
ollama/qwen3:1.7b
✅ 你已经成功配置本地 Qwen 模型!
第六步:直接开始聊天
bash
运行
openclaw chat