openclaw: 安装龙虾

0 阅读2分钟

虽说龙虾并不适合所有人(更方便的还是Claude code,不要被名字骗了),但还是尝试一波再说:

官网教程:docs.openclaw.ai/start/getti…

更好的教程:github.com/xianyu110/a…

常见命令:

status (openclaw gateway status)

openclaw tui

openclaw dashboard

openclaw logs --follow

openclaw gateway start (restart)

openclaw gateway stop

本地环境:Linux 安装Nodejs 24.x(nodejs.org/en/download…

sudo curl -fsSL openclaw.ai/install.sh | bash

image.png 以上,需卸载nodejs并重新安装最新版本24.x:

-[1/3] Preparing environment: 自动安装Homebrew(Linux中没出现)、Node.js、 Linux build tools、Git等,这里等待较长时间[先安装nodejs]

image.png

image.png

  • [2/3] Installing OpenClaw: 报错,【npm】,以下为正确安装时截图 ——————————————

image.png

openclaw onboard (启动 OpenClaw 的初始化向导)

配置:

image.png 选择Qwen,注册账号,认证成功并返回命令行界面

image.png

先选择Keep current,保持默认大模型版本

image.png

  • 以下是上网相关的,可以先跳过

image.png

  • Skills也先跳过

image.png

  • HOOKS也跳过

image.png

image.png

image.png

  • status 命令

image.png

2 切换为本地LLM

--chat-template-kwargs "{"enable_thinking": false}"

核心修改思路(仅需 2 步)

1. 在 models.providers新增本地模型配置(和 qwen-portal 同级)

2. 修改 agents.defaults.model.primary 为本地模型(替换原 qwen-portal/coder-model

修改后的完整配置片段(只加不改原有内容)

json

{
  "models": {
    "providers": {
      "qwen-portal": {  // 保留原有配置,不动
        "baseUrl": "https://portal.qwen.ai/v1",
        "apiKey": "qwen-oauth",
        "api": "openai-completions",
        "models": [/* 原有内容不变 */]
      },
      // 新增 ↓ 本地llama模型配置(和qwen-portal同级)
      "local_llama": {
        "baseUrl": "http://127.0.0.1:8080/v1",
        "apiKey": "no-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "Qwen3.5-35B-A3B-Q4_K_M",
            "name": "Local Qwen3.5-35B",
            "contextWindow": 32768,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        // 修改 ↓ 替换为本地模型(核心!)
        "primary": "local_llama/Qwen3.5-35B-A3B-Q4_K_M"
      },
      "models": {  // 保留原有内容,可新增别名(可选)
        "qwen-portal/coder-model": {"alias": "qwen"},
        "qwen-portal/vision-model": {},
        "local_llama/Qwen3.5-35B-A3B-Q4_K_M": {"alias": "local-qwen"}  // 可选新增
      },
      "workspace": "/home/yang/.openclaw/workspace"
    }
  }
}

总结关键修改点

  1. 新增 provider:在 models.providers 下加 local_llama 节点,指向本地 llama-server 的 API 地址;
  2. 切换默认模型:把 agents.defaults.model.primaryqwen-portal/coder-model 改成 local_llama/Qwen3.5-35B-A3B-Q4_K_M
  3. 保留原有配置qwen-portal 相关内容完全不动,后续想切回云端 API 只需改回 primary 值即可。

修改后重启 openclaw restart,就会默认调用你本地的 Qwen3.5-35B 模型了

启动llama-server for openclaw

cd ~/llama.cpp ./llama-server -m "$HOME/models/qwen3.5/Qwen3.5-35B-A3B-Q4_K_M.gguf" --port 8080