虽说龙虾并不适合所有人(更方便的还是Claude code,不要被名字骗了),但还是尝试一波再说:
官网教程:docs.openclaw.ai/start/getti…
更好的教程:github.com/xianyu110/a…
鱼皮的教程 [推荐]:ai.codefather.cn/library/203…
常见命令:
status (openclaw gateway status)
openclaw tui
openclaw dashboard
openclaw logs --follow
openclaw gateway start (restart)
openclaw gateway stop
本地环境:Linux 安装Nodejs 24.x(nodejs.org/en/download…
sudo curl -fsSL openclaw.ai/install.sh | bash
以上,需卸载nodejs并重新安装最新版本24.x:
-[1/3] Preparing environment: 自动安装Homebrew(Linux中没出现)、Node.js、 Linux build tools、Git等,这里等待较长时间[先安装nodejs]
- [2/3] Installing OpenClaw: 报错,【npm】,以下为正确安装时截图 ——————————————
openclaw onboard (启动 OpenClaw 的初始化向导)
配置:
选择Qwen,注册账号,认证成功并返回命令行界面
- QWen(Auth)已经停止支持,见 github.com/openclaw/op…
先选择Keep current,保持默认大模型版本
- 以下是上网相关的,可以先跳过
- Skills也先跳过
- HOOKS可以跳过 (有博主建议至少先安装clawhub更好)
- status 命令
2 切换为本地LLM
- Qwen3.5-35B-A3B-Q4_K_M.gguf ( thinking 或者非thinking)
- 非thinking加以下一句命令:zhuanlan.zhihu.com/p/201037138…
--chat-template-kwargs "{"enable_thinking": false}"
核心修改思路(仅需 2 步)
1. 在 models.providers 里新增本地模型配置(和 qwen-portal 同级)
2. 修改 agents.defaults.model.primary 为本地模型(替换原 qwen-portal/coder-model)
修改后的完整配置片段(只加不改原有内容)
json
{
"models": {
"providers": {
"qwen-portal": { // 保留原有配置,不动
"baseUrl": "https://portal.qwen.ai/v1",
"apiKey": "qwen-oauth",
"api": "openai-completions",
"models": [/* 原有内容不变 */]
},
// 新增 ↓ 本地llama模型配置(和qwen-portal同级)
"local_llama": {
"baseUrl": "http://127.0.0.1:8080/v1",
"apiKey": "no-key",
"api": "openai-completions",
"models": [
{
"id": "Qwen3.5-35B-A3B-Q4_K_M",
"name": "Local Qwen3.5-35B",
"contextWindow": 32768,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": {
// 修改 ↓ 替换为本地模型(核心!)
"primary": "local_llama/Qwen3.5-35B-A3B-Q4_K_M"
},
"models": { // 保留原有内容,可新增别名(可选)
"qwen-portal/coder-model": {"alias": "qwen"},
"qwen-portal/vision-model": {},
"local_llama/Qwen3.5-35B-A3B-Q4_K_M": {"alias": "local-qwen"} // 可选新增
},
"workspace": "/home/yang/.openclaw/workspace"
}
}
}
总结关键修改点
- 新增 provider:在
models.providers下加local_llama节点,指向本地 llama-server 的 API 地址; - 切换默认模型:把
agents.defaults.model.primary从qwen-portal/coder-model改成local_llama/Qwen3.5-35B-A3B-Q4_K_M; - 保留原有配置:
qwen-portal相关内容完全不动,后续想切回云端 API 只需改回primary值即可。
修改后重启 openclaw restart,就会默认调用你本地的 Qwen3.5-35B 模型了
启动llama-server for openclaw
cd ~/llama.cpp ./llama-server -m "$HOME/models/qwen3.5/Qwen3.5-35B-A3B-Q4_K_M.gguf" --port 8080
———————— 接入飞书,打开流式响应:
常用命令
- /btw (插一嘴,不写入对话历史)临时问个小问题,如我们现在在聊什么来着?
- /commands 命令列表
- openclaw configure 模型切换可参考:pinchbench.com/
- openclaw models status
# 配置默认文本模型
openclaw models set zai/glm-5
# 用 config 命令直接写配置
openclaw config set agents.defaults.model.primary "moonshot/kimi-k2.5"
# 设置图片理解模型(看图用的)
openclaw models set-image zai/glm-5
# 添加备用降级模型
openclaw models fallbacks add 提供商/模型
突然欠费,临时切换模型(只影响当前会话):ai.codefather.cn/library/203…
- /model list
- /model zai/glm-5
降级模型设置:兜底,确保有模型可用
- openclaw models fallbacks add 提供商/模型
- 降级模型链:openclaw config set agents.defaults.model.fallbacks '["zai/glm-5", "qwen/qwen-max"]' --strict-json
最后生效靠:openclaw gateway restart
安装技能(skills)
- 用multi-search-engine搜索:/multi-search-engine 全网搜索鱼皮编程导航相关的信息
- 用Tavily搜索:/tavily 或 /usetavily
让AI自己创造技能
将解决方案沉淀为可复用的节能包,龙虾越养越聪明。
-
skill-creator (skills.sh/anthropics/…)
定时任务(Cron)
- openclaw cron add 创建;或者直接用自然语言交互即可
心跳(Heartbeat)
- 被动巡逻(默认1次/30min),读取HEARTBEAT.md检查清单
- 可以手动关闭
其他(Hooks, Webhook外部集成(如飞书机器人))
略
多智能体协作
- 省钱技巧:子智能体可以使用更便宜的大模型,还可单独设置回复模式,建议先开启/verbose full,可以看到子智能体的runid,参考:ai.codefather.cn/library/203…
# 全局设置子智能体的默认模型
openclaw config set agents.defaults.subagents.model "zai/glm-4.7-flash"
# 或者在对话中临时指定
/subagents spawn --model zai/glm-5 --thinking high 帮我写一篇技术报告