虽说龙虾并不适合所有人(更方便的还是Claude code,不要被名字骗了),但还是尝试一波再说:
官网教程:docs.openclaw.ai/start/getti…
更好的教程:github.com/xianyu110/a…
常见命令:
status (openclaw gateway status)
openclaw tui
openclaw dashboard
openclaw logs --follow
openclaw gateway start (restart)
openclaw gateway stop
本地环境:Linux 安装Nodejs 24.x(nodejs.org/en/download…
sudo curl -fsSL openclaw.ai/install.sh | bash
以上,需卸载nodejs并重新安装最新版本24.x:
-[1/3] Preparing environment: 自动安装Homebrew(Linux中没出现)、Node.js、 Linux build tools、Git等,这里等待较长时间[先安装nodejs]
- [2/3] Installing OpenClaw: 报错,【npm】,以下为正确安装时截图 ——————————————
openclaw onboard (启动 OpenClaw 的初始化向导)
配置:
选择Qwen,注册账号,认证成功并返回命令行界面
先选择Keep current,保持默认大模型版本
- 以下是上网相关的,可以先跳过
- Skills也先跳过
- HOOKS也跳过
- status 命令
2 切换为本地LLM
- Qwen3.5-35B-A3B-Q4_K_M.gguf ( thinking 或者非thinking)
- 非thinking加以下一句命令:zhuanlan.zhihu.com/p/201037138…
--chat-template-kwargs "{"enable_thinking": false}"
核心修改思路(仅需 2 步)
1. 在 models.providers 里新增本地模型配置(和 qwen-portal 同级)
2. 修改 agents.defaults.model.primary 为本地模型(替换原 qwen-portal/coder-model)
修改后的完整配置片段(只加不改原有内容)
json
{
"models": {
"providers": {
"qwen-portal": { // 保留原有配置,不动
"baseUrl": "https://portal.qwen.ai/v1",
"apiKey": "qwen-oauth",
"api": "openai-completions",
"models": [/* 原有内容不变 */]
},
// 新增 ↓ 本地llama模型配置(和qwen-portal同级)
"local_llama": {
"baseUrl": "http://127.0.0.1:8080/v1",
"apiKey": "no-key",
"api": "openai-completions",
"models": [
{
"id": "Qwen3.5-35B-A3B-Q4_K_M",
"name": "Local Qwen3.5-35B",
"contextWindow": 32768,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
// 修改 ↓ 替换为本地模型(核心!)
"primary": "local_llama/Qwen3.5-35B-A3B-Q4_K_M"
},
"models": { // 保留原有内容,可新增别名(可选)
"qwen-portal/coder-model": {"alias": "qwen"},
"qwen-portal/vision-model": {},
"local_llama/Qwen3.5-35B-A3B-Q4_K_M": {"alias": "local-qwen"} // 可选新增
},
"workspace": "/home/yang/.openclaw/workspace"
}
}
}
总结关键修改点
- 新增 provider:在
models.providers下加local_llama节点,指向本地 llama-server 的 API 地址; - 切换默认模型:把
agents.defaults.model.primary从qwen-portal/coder-model改成local_llama/Qwen3.5-35B-A3B-Q4_K_M; - 保留原有配置:
qwen-portal相关内容完全不动,后续想切回云端 API 只需改回primary值即可。
修改后重启 openclaw restart,就会默认调用你本地的 Qwen3.5-35B 模型了
启动llama-server for openclaw
cd ~/llama.cpp ./llama-server -m "$HOME/models/qwen3.5/Qwen3.5-35B-A3B-Q4_K_M.gguf" --port 8080