玩转Openclaw基础篇章

0 阅读5分钟

OpenClaw 完整配置指南

📋 目录

  1. OpenClaw 安装与配置
  2. 配置文件管理
  3. 常用命令参考
  4. [本地模型部署(LM Studio)](#4-本地模型部署 lm-studio)
  5. 云端模型配置(白山智算)
  6. 模型关联 OpenClaw
  7. 模型验证测试
  8. 故障排查

1. OpenClaw 安装与配置

1.1 环境准备

Node.js 安装

node -v
# 输出示例:v24.13.0

1.2 安装 OpenClaw

npm install -g openclaw@latest

等待安装完成。

1.3 启动 UI 界面

openclaw onboard --install-daemon

执行此命令后,OpenClaw 将启动并安装守护进程。

📖 详细文档: OpenClaw 官方安装指南


2. 配置文件管理

2.1 配置文件位置

OpenClaw 的配置文件存储在用户主目录下:

Windows 系统:

C:\Users\<你的用户名>\.openclaw

其他系统:

~/.openclaw

2.2 关键配置文件

openclaw.json

主配置文件,包含以下重要内容:

  • 渠道配置:定义不同的 API 提供商
  • 技能配置:配置各种功能模块
  • 模型声明:注册可用的 AI 模型
agents 文件夹

定义 UI 聊天窗口中可选的模型列表。

⚠️ 注意:如果发现 UI 中使用的是历史数据,需要检查此文件夹并删除无用的模型定义。


3. 常用命令参考

3.1 Gateway 管理

停止 Gateway:

openclaw gateway stop

运行 Gateway:

openclaw gateway run

💡 提示:这两个命令用于在修改配置后使其生效。

3.2 配置管理

配置向导:

openclaw config

此命令提供交互式配置界面,可用于添加:

  • 新渠道
  • 新模型
  • 其他配置项

3.3 诊断工具

健康检查:

openclaw doctor

查看状态:

openclaw status

🔍 说明:OpenClaw 提供了多种运行检查命令,如果配置文件存在问题(如缺少必要配置),会显示详细的错误信息。


4. 本地模型部署(LM Studio)

4.1 为什么选择 LM Studio?

  • ✅ 显卡适配优秀
  • ✅ 易于使用
  • ✅ 适合本地部署
  • ✅ 提供桌面端应用

4.2 安装步骤

  1. 下载并安装 LM Studio 桌面应用
  2. 启动应用程序

4.3 关键配置

4.3.1 系统检查

查看系统软件硬件是否满足要求:

系统更新检查

  • 🔴 如果显示红色警告,尝试更新相关组件
  • 💪 如无法更新,考虑升级显卡或使用 Mac Mini
4.3.2 模型上下文长度配置

默认上下文长度较小,建议调整为最大值: 模型默认配置

⚙️ 注意:此配置基于你的显卡性能,请根据实际情况调整。

4.3.3 启用开发者模式

按以下顺序配置:

  1. 打开开发者模式 开发者模式

  2. 启动本地服务器 本地服务器配置

  3. 在终端中运行:

    lm server
    
  4. 验证服务是否正常运行:

    curl http://127.0.0.1:1234/v1/models
    

4.4 模型下载与测试

  1. 选择适配你电脑显卡的模型
  2. 下载模型
  3. 打开聊天窗口测试模型加载
  4. 验证显卡工作状态
    • 打开任务管理器
    • 进入"性能"标签页
    • 观察"专用 GPU"使用情况
    • 如果使用率无变化,说明显卡未正常工作

5. 云端模型配置(白山智算)

5.1 平台介绍

白山智算 是一个优质的云端模型服务平台:

  • 🎁 额度大
  • 🚀 模型强
  • 💎 稳定性好
  • 🆓 提供免费额度供学习使用

5.2 注册与获取凭证

  1. 注册地址ai.baishan.com/auth/login?…

    💰 通过此链接注册可获得额外免费额度

  2. 获取模型信息

    访问模型广场,获取所需模型的配置信息:

    remote_model_yunshan.png

    config_remote_model_yunshan_minimax.png

  3. 创建 Token

    • 创建一个不过期的 API Token
    • 记录 baseUrl 和 modelId

6. 模型关联 OpenClaw

6.1 配置本地模型

运行配置命令:

openclaw config

按以下步骤操作:

  1. 选择 local

  2. 选择 model

  3. 选择 custom providers

  4. 输入配置信息:

    • Base URL: http://127.0.0.1:1234/v1

    • API Key: 任意值(本地模型不校验)

    • Model ID: 你下载的模型 ID 模型配置

  5. 验证成功后会显示 verify success

6.2 配置云端模型

同样使用 openclaw config 命令:

  1. 选择相应的云端提供商
  2. 输入从白山智算获取的信息:
    • Base URL: 云端 API 地址
    • API Key: 创建的 Token
    • Model ID: 选择的模型 ID

7. 模型验证测试

7.1 云端模型测试

curl --request POST \
  --url https://api.edgefn.net/v1/chat/completions \
  --header 'Authorization: Bearer sk-1234567890' \
  --header 'Content-Type: application/json' \
  --data '{
  "model": "MiniMax-M2.5",
  "messages": [{"role": "user", "content": "Hello, how are you?"}]}'

7.2 本地模型测试

curl http://localhost:1234/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "liquid/lfm2.5-1.2b",
    "messages": [{"role": "user", "content": "Hello"}]
  }'

7.3 预期结果

正常情况应立即返回响应,如下图所示:

chat.png


8. 故障排查

8.1 常见问题

问题 1:配置完成后 UI 中看不到新模型

解决方案

  1. 检查 ~/.openclaw/agents 文件夹
  2. 清理无用模型定义
  3. 重启 Gateway:
    openclaw gateway stop
    openclaw gateway run
    
问题 2:本地模型 GPU 使用率为 0

排查步骤

  1. 确认 LM Studio 中已正确加载模型
  2. 检查显卡驱动是否最新
  3. 验证模型是否支持你的显卡架构
  4. 查看 LM Studio 日志中的错误信息
问题 3:配置文件报错

解决方案

openclaw doctor

查看详细错误信息并修复。

8.2 验证清单

  • Node.js 已正确安装
  • OpenClaw 全局安装完成
  • 配置文件路径正确
  • Gateway 正在运行
  • 模型配置已添加到 openclaw.json
  • 本地/云端模型可正常访问
  • curl 测试返回成功响应
  • UI 界面可以选择配置的模型

📞 获取帮助

如果遇到问题:

  1. 查看官方文档:docs.openclaw.ai/
  2. 运行 openclaw doctor 进行诊断
  3. 检查配置文件语法是否正确
  4. 验证网络连接(云端模型)

🎉 总结

至此,你已经完成了:

  • ✅ OpenClaw 的安装与基础配置
  • ✅ 本地 LM Studio 模型的部署
  • ✅ 云端白山智算模型的配置
  • ✅ 模型与 OpenClaw 的关联
  • ✅ 模型验证测试

现在可以开始使用 OpenClaw 进行各种 AI 应用开发了!

祝大家玩得开心! 🚀