openclaw: 安装龙虾

77 阅读3分钟

虽说龙虾并不适合所有人(更方便的还是Claude code,不要被名字骗了),但还是尝试一波再说:

官网教程:docs.openclaw.ai/start/getti…

更好的教程:github.com/xianyu110/a…

鱼皮的教程 [推荐]:ai.codefather.cn/library/203…

常见命令:

status (openclaw gateway status)

openclaw tui

openclaw dashboard

openclaw logs --follow

openclaw gateway start (restart)

openclaw gateway stop

本地环境:Linux 安装Nodejs 24.x(nodejs.org/en/download…

sudo curl -fsSL openclaw.ai/install.sh | bash

image.png 以上,需卸载nodejs并重新安装最新版本24.x:

-[1/3] Preparing environment: 自动安装Homebrew(Linux中没出现)、Node.js、 Linux build tools、Git等,这里等待较长时间[先安装nodejs]

image.png

image.png

  • [2/3] Installing OpenClaw: 报错,【npm】,以下为正确安装时截图 ——————————————

image.png

openclaw onboard (启动 OpenClaw 的初始化向导)

配置:

image.png 选择Qwen,注册账号,认证成功并返回命令行界面

image.png

先选择Keep current,保持默认大模型版本

image.png

  • 以下是上网相关的,可以先跳过

image.png

  • Skills也先跳过

image.png

  • HOOKS可以跳过 (有博主建议至少先安装clawhub更好)

image.png

image.png

image.png

image.png

  • status 命令

image.png

2 切换为本地LLM

--chat-template-kwargs "{"enable_thinking": false}"

核心修改思路(仅需 2 步)

1. 在 models.providers新增本地模型配置(和 qwen-portal 同级)

2. 修改 agents.defaults.model.primary 为本地模型(替换原 qwen-portal/coder-model

修改后的完整配置片段(只加不改原有内容)

json

{
  "models": {
    "providers": {
      "qwen-portal": {  // 保留原有配置,不动
        "baseUrl": "https://portal.qwen.ai/v1",
        "apiKey": "qwen-oauth",
        "api": "openai-completions",
        "models": [/* 原有内容不变 */]
      },
      // 新增 ↓ 本地llama模型配置(和qwen-portal同级)
      "local_llama": {
        "baseUrl": "http://127.0.0.1:8080/v1",
        "apiKey": "no-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "Qwen3.5-35B-A3B-Q4_K_M",
            "name": "Local Qwen3.5-35B",
            "contextWindow": 32768,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        // 修改 ↓ 替换为本地模型(核心!)
        "primary": "local_llama/Qwen3.5-35B-A3B-Q4_K_M"
      },
      "models": {  // 保留原有内容,可新增别名(可选)
        "qwen-portal/coder-model": {"alias": "qwen"},
        "qwen-portal/vision-model": {},
        "local_llama/Qwen3.5-35B-A3B-Q4_K_M": {"alias": "local-qwen"}  // 可选新增
      },
      "workspace": "/home/yang/.openclaw/workspace"
    }
  }
}

总结关键修改点

  1. 新增 provider:在 models.providers 下加 local_llama 节点,指向本地 llama-server 的 API 地址;
  2. 切换默认模型:把 agents.defaults.model.primaryqwen-portal/coder-model 改成 local_llama/Qwen3.5-35B-A3B-Q4_K_M
  3. 保留原有配置qwen-portal 相关内容完全不动,后续想切回云端 API 只需改回 primary 值即可。

修改后重启 openclaw restart,就会默认调用你本地的 Qwen3.5-35B 模型了

启动llama-server for openclaw

cd ~/llama.cpp ./llama-server -m "$HOME/models/qwen3.5/Qwen3.5-35B-A3B-Q4_K_M.gguf" --port 8080

———————— 接入飞书,打开流式响应:

image.png

常用命令

docs.openclaw.ai/zh-CN

  • /btw (插一嘴,不写入对话历史)临时问个小问题,如我们现在在聊什么来着?
  • /commands 命令列表
  • openclaw configure 模型切换可参考:pinchbench.com/
    • openclaw models status

image.png

# 配置默认文本模型
openclaw models set zai/glm-5

# 用 config 命令直接写配置
openclaw config set agents.defaults.model.primary "moonshot/kimi-k2.5"

# 设置图片理解模型(看图用的)
openclaw models set-image zai/glm-5

# 添加备用降级模型
openclaw models fallbacks add 提供商/模型

突然欠费,临时切换模型(只影响当前会话):ai.codefather.cn/library/203…

  • /model list
  • /model zai/glm-5

降级模型设置:兜底,确保有模型可用

  • openclaw models fallbacks add 提供商/模型
  • 降级模型链:openclaw config set agents.defaults.model.fallbacks '["zai/glm-5", "qwen/qwen-max"]' --strict-json

最后生效靠:openclaw gateway restart

安装技能(skills)

image.png

  • 用multi-search-engine搜索:/multi-search-engine 全网搜索鱼皮编程导航相关的信息
  • 用Tavily搜索:/tavily 或 /usetavily

让AI自己创造技能

将解决方案沉淀为可复用的节能包,龙虾越养越聪明。

image.png

定时任务(Cron)

  • openclaw cron add 创建;或者直接用自然语言交互即可

心跳(Heartbeat)

  • 被动巡逻(默认1次/30min),读取HEARTBEAT.md检查清单
  • 可以手动关闭

其他(Hooks, Webhook外部集成(如飞书机器人))

多智能体协作

  • 省钱技巧:子智能体可以使用更便宜的大模型,还可单独设置回复模式,建议先开启/verbose full,可以看到子智能体的runid,参考:ai.codefather.cn/library/203…
# 全局设置子智能体的默认模型
openclaw config set agents.defaults.subagents.model "zai/glm-4.7-flash"

# 或者在对话中临时指定
/subagents spawn --model zai/glm-5 --thinking high 帮我写一篇技术报告