OpenClaw 完整配置指南
📋 目录
- OpenClaw 安装与配置
- 配置文件管理
- 常用命令参考
- [本地模型部署(LM Studio)](#4-本地模型部署 lm-studio)
- 云端模型配置(白山智算)
- 模型关联 OpenClaw
- 模型验证测试
- 故障排查
1. OpenClaw 安装与配置
1.1 环境准备
Node.js 安装
node -v
# 输出示例:v24.13.0
1.2 安装 OpenClaw
npm install -g openclaw@latest
等待安装完成。
1.3 启动 UI 界面
openclaw onboard --install-daemon
执行此命令后,OpenClaw 将启动并安装守护进程。
📖 详细文档: OpenClaw 官方安装指南
2. 配置文件管理
2.1 配置文件位置
OpenClaw 的配置文件存储在用户主目录下:
Windows 系统:
C:\Users\<你的用户名>\.openclaw
其他系统:
~/.openclaw
2.2 关键配置文件
openclaw.json
主配置文件,包含以下重要内容:
- 渠道配置:定义不同的 API 提供商
- 技能配置:配置各种功能模块
- 模型声明:注册可用的 AI 模型
agents 文件夹
定义 UI 聊天窗口中可选的模型列表。
⚠️ 注意:如果发现 UI 中使用的是历史数据,需要检查此文件夹并删除无用的模型定义。
3. 常用命令参考
3.1 Gateway 管理
停止 Gateway:
openclaw gateway stop
运行 Gateway:
openclaw gateway run
💡 提示:这两个命令用于在修改配置后使其生效。
3.2 配置管理
配置向导:
openclaw config
此命令提供交互式配置界面,可用于添加:
- 新渠道
- 新模型
- 其他配置项
3.3 诊断工具
健康检查:
openclaw doctor
查看状态:
openclaw status
🔍 说明:OpenClaw 提供了多种运行检查命令,如果配置文件存在问题(如缺少必要配置),会显示详细的错误信息。
4. 本地模型部署(LM Studio)
4.1 为什么选择 LM Studio?
- ✅ 显卡适配优秀
- ✅ 易于使用
- ✅ 适合本地部署
- ✅ 提供桌面端应用
4.2 安装步骤
- 下载并安装 LM Studio 桌面应用
- 启动应用程序
4.3 关键配置
4.3.1 系统检查
查看系统软件硬件是否满足要求:
- 🔴 如果显示红色警告,尝试更新相关组件
- 💪 如无法更新,考虑升级显卡或使用 Mac Mini
4.3.2 模型上下文长度配置
默认上下文长度较小,建议调整为最大值:
⚙️ 注意:此配置基于你的显卡性能,请根据实际情况调整。
4.3.3 启用开发者模式
按以下顺序配置:
-
打开开发者模式
-
启动本地服务器
-
在终端中运行:
lm server -
验证服务是否正常运行:
curl http://127.0.0.1:1234/v1/models
4.4 模型下载与测试
- 选择适配你电脑显卡的模型
- 下载模型
- 打开聊天窗口测试模型加载
- 验证显卡工作状态:
- 打开任务管理器
- 进入"性能"标签页
- 观察"专用 GPU"使用情况
- 如果使用率无变化,说明显卡未正常工作
5. 云端模型配置(白山智算)
5.1 平台介绍
白山智算 是一个优质的云端模型服务平台:
- 🎁 额度大
- 🚀 模型强
- 💎 稳定性好
- 🆓 提供免费额度供学习使用
5.2 注册与获取凭证
-
注册地址: ai.baishan.com/auth/login?…
💰 通过此链接注册可获得额外免费额度
-
获取模型信息:
访问模型广场,获取所需模型的配置信息:
-
创建 Token:
- 创建一个不过期的 API Token
- 记录 baseUrl 和 modelId
6. 模型关联 OpenClaw
6.1 配置本地模型
运行配置命令:
openclaw config
按以下步骤操作:
-
选择
local -
选择
model -
选择
custom providers -
输入配置信息:
-
Base URL:
http://127.0.0.1:1234/v1 -
API Key: 任意值(本地模型不校验)
-
Model ID: 你下载的模型 ID
-
-
验证成功后会显示
verify success
6.2 配置云端模型
同样使用 openclaw config 命令:
- 选择相应的云端提供商
- 输入从白山智算获取的信息:
- Base URL: 云端 API 地址
- API Key: 创建的 Token
- Model ID: 选择的模型 ID
7. 模型验证测试
7.1 云端模型测试
curl --request POST \
--url https://api.edgefn.net/v1/chat/completions \
--header 'Authorization: Bearer sk-1234567890' \
--header 'Content-Type: application/json' \
--data '{
"model": "MiniMax-M2.5",
"messages": [{"role": "user", "content": "Hello, how are you?"}]}'
7.2 本地模型测试
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "liquid/lfm2.5-1.2b",
"messages": [{"role": "user", "content": "Hello"}]
}'
7.3 预期结果
正常情况应立即返回响应,如下图所示:
8. 故障排查
8.1 常见问题
问题 1:配置完成后 UI 中看不到新模型
解决方案:
- 检查
~/.openclaw/agents文件夹 - 清理无用模型定义
- 重启 Gateway:
openclaw gateway stop openclaw gateway run
问题 2:本地模型 GPU 使用率为 0
排查步骤:
- 确认 LM Studio 中已正确加载模型
- 检查显卡驱动是否最新
- 验证模型是否支持你的显卡架构
- 查看 LM Studio 日志中的错误信息
问题 3:配置文件报错
解决方案:
openclaw doctor
查看详细错误信息并修复。
8.2 验证清单
- Node.js 已正确安装
- OpenClaw 全局安装完成
- 配置文件路径正确
- Gateway 正在运行
- 模型配置已添加到
openclaw.json - 本地/云端模型可正常访问
- curl 测试返回成功响应
- UI 界面可以选择配置的模型
📞 获取帮助
如果遇到问题:
- 查看官方文档:docs.openclaw.ai/
- 运行
openclaw doctor进行诊断 - 检查配置文件语法是否正确
- 验证网络连接(云端模型)
🎉 总结
至此,你已经完成了:
- ✅ OpenClaw 的安装与基础配置
- ✅ 本地 LM Studio 模型的部署
- ✅ 云端白山智算模型的配置
- ✅ 模型与 OpenClaw 的关联
- ✅ 模型验证测试
现在可以开始使用 OpenClaw 进行各种 AI 应用开发了!
祝大家玩得开心! 🚀