白嫖大模型!OpenClaw + 白山智算,免费体验 MiniMax-M2.5/GLM-5/DeepSeek-V3.2
还在为 AI 大模型的 Token 费用发愁吗?还在纠结用哪个模型最划算吗?
今天分享一个宝藏平台——白山智算,推广期间注册就送体验金,让你免费畅玩多款顶级大模型!
🎁 注册福利
| 活动 | 奖励 |
|---|---|
| 新用户注册 + 实名认证 | 送 150元 体验金 |
| 首次通过 API 调用 AI 模型 | 再送 300元 体验金(3月16日前) |
合计最高送 ¥450! 完全够你玩一阵子了 👀
🤖 支持的大模型
- MiniMax-M2.5 — 国产顶流,推理能力强
- GLM-5 — 智谱出品,长上下文王者
- DeepSeek-V3.2 — 性价比之王
重点来了:MiniMax-M2.5 和 GLM-5 支持 204.8K 超长上下文! 扔进去一整本书都没问题 📚
🔗 注册地址
邀请链接(用这个注册有福利哦):
欢迎兄弟们使用邀请链接注册,大家一起薅羊毛!🤝
⚙️ OpenClaw 配置教程
方案一:快速开始(推荐新手)
如果你已经安装了 OpenClaw,直接跳到 配置白山智算模型。
方案二:从零开始安装 OpenClaw
第一步:安装前置依赖
OpenClaw 需要 Node.js 22+ 环境。
Ubuntu/Debian:
# 方法一:使用 nvm 安装(推荐,方便切换版本)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash
source ~/.bashrc
nvm install 22
nvm use 22
# 方法二:国内镜像加速安装
# 设置 nvm 镜像源
export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node
nvm install 22
nvm use 22
# 永久设置镜像(可选)
echo 'export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node' >> ~/.bashrc
macOS:
# 方法一:使用 Homebrew
brew install node@22
# 方法二:使用 nvm(推荐)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash
source ~/.zshrc # 或 ~/.bash_profile
nvm install 22
nvm use 22
# 国内镜像加速
export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node
nvm install 22
Windows(小白专用教程):
🎯 先说结论:Windows 推荐直接下载安装包,最简单!
方法一:官方安装包(最简单,推荐新手)
-
下载 Node.js
- 打开浏览器,访问:nodejs.org/zh-cn/downl…
- 选择版本:
22.x LTS(长期支持版) - 下载 Windows 安装包(.msi 文件)
-
安装 Node.js
- 双击下载的
.msi文件 - 一路点击「Next」,保持默认选项即可
- ✅ 重要:安装时勾选「Automatically install the necessary tools...」(自动安装必要工具)
- 安装完成后,重启电脑(让环境变量生效)
- 双击下载的
-
验证安装
- 按
Win + R,输入cmd,回车 - 在黑色窗口中输入:
node --version- 如果显示
v22.x.x,说明安装成功!
- 按
方法二:nvm-windows(适合需要切换版本的用户)
💡 nvm 可以安装多个 Node.js 版本并随意切换
-
下载 nvm-windows
- 访问:github.com/coreybutler…
- 下载最新的
nvm-setup.exe - 双击安装,一路 Next
-
配置国内镜像(加速下载)
- 找到 nvm 安装目录(默认
C:\Users\你的用户名\AppData\Roaming\nvm) - 用记事本打开
settings.txt,添加以下内容:
node_mirror: https://npmmirror.com/mirrors/node/ npm_mirror: https://npmmirror.com/mirrors/npm/ - 找到 nvm 安装目录(默认
-
安装 Node.js
- 打开「命令提示符」或「PowerShell」
- 输入以下命令:
nvm install 22 nvm use 22 -
验证
node --version nvm list
⚠️ Windows 常见问题:
❓ 点击展开常见问题解答
Q1: 输入 node 提示「不是内部或外部命令」?
这说明 Node.js 没有添加到系统环境变量。解决方法:
- 右键「此电脑」→「属性」→「高级系统设置」
- 点击「环境变量」
- 在「系统变量」中找到
Path,点击「编辑」 - 添加 Node.js 安装路径,例如:
C:\Program Files\nodejs\
- 点击确定,重启命令行窗口
Q2: 安装时提示权限不足?
- 右键点击安装包 →「以管理员身份运行」
- 或者关闭杀毒软件后再安装
Q3: 怎么打开命令行?
- 方法一:按
Win + R,输入cmd,回车 - 方法二:按
Win + X,选择「终端」或「Windows PowerShell」 - 方法三:在开始菜单搜索「命令提示符」
Q4: PowerShell 和 cmd 有什么区别?
都能用,PowerShell 更现代(蓝色窗口),cmd 更经典(黑色窗口)。教程里的命令在两个里面都能运行。
Q5: 怎么粘贴命令到命令行?
- 在 cmd 中:右键点击窗口即可粘贴
- 在 PowerShell 中:可以用
Ctrl + V - 或者先复制命令,然后在命令行窗口右键
Q6: 命令输入一半想取消怎么办?
按 Ctrl + C 取消当前输入
Q7: 怎么查看当前目录?
输入 cd 然后回车,会显示当前所在文件夹
验证安装(所有系统):
node --version # 应显示 v22.x.x
npm --version # 应显示 10.x.x
如果显示版本号,恭喜你,环境准备完成!🎉
第二步:安装 OpenClaw
🎯 Windows 用户注意:以下命令在「命令提示符」或「PowerShell」中都可以运行
2.1 安装 pnpm(包管理工具)
pnpm 是用来安装 OpenClaw 的工具,先安装它:
# 方法一:使用 corepack(推荐,Node.js 自带)
corepack enable
corepack prepare pnpm@latest --activate
# 方法二:使用 npm 安装
npm install -g pnpm
2.2 配置国内镜像源(国内必做,加速下载)
pnpm config set registry https://registry.npmmirror.com
2.3 安装 OpenClaw
pnpm add -g openclaw
⚠️ 如果提示「找不到版本」或「No matching version」: 说明国内镜像还没同步最新版本,临时使用官方源:
pnpm add -g openclaw --registry https://registry.npmjs.org
2.4 验证安装
openclaw --version
如果显示版本号(如 OpenClaw 2026.3.8),恭喜安装成功!🎉
⚠️ Windows 安装常见问题:
❓ 点击展开常见问题解答
Q1: 输入 pnpm 提示「不是内部或外部命令」?
pnpm 没有添加到环境变量。解决方法:
- 找到 pnpm 安装位置,通常在:
C:\Users\你的用户名\AppData\Local\pnpm
- 将这个路径添加到系统环境变量
Path中 - 重启命令行窗口
或者直接运行:
# PowerShell 中执行,自动配置环境变量
pnpm setup
Q2: 安装时提示权限错误?
以管理员身份运行命令行:
- 搜索「cmd」或「PowerShell」
- 右键 →「以管理员身份运行」
Q3: 提示「无法加载文件...因为在此系统上禁止运行脚本」?
这是 PowerShell 的安全策略限制,执行以下命令解除:
Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
Q4: 安装很慢或卡住?
检查镜像源是否配置正确:
pnpm config get registry
应该显示 https://registry.npmmirror.com/,如果不是,重新设置。
Q5: 怎么更新 OpenClaw?
pnpm update -g openclaw
Q6: 怎么卸载 OpenClaw?
pnpm remove -g openclaw
💡 国内镜像说明:
registry.npmmirror.com— 淘宝镜像,更新快,推荐mirrors.tencentyun.com/npm— 腾讯云镜像- 镜像同步有延迟,最新版本可能需要等几小时
第三步:运行 Onboard 向导
首次安装后,运行 onboard 配置:
openclaw onboard
向导会引导你完成以下配置:
╭─────────────────────────────────────────────────────────────╮
│ 🐾 Welcome to OpenClaw! Let's get you set up. │
╰─────────────────────────────────────────────────────────────╯
? What would you like to configure first?
> Model Provider ← 选择这个,配置 AI 模型
Storage Location
Skip for now
? Choose your model provider:
OpenAI
Anthropic
Google Gemini
DeepSeek
vLLM (Self-hosted) ← 选择这个,兼容 OpenAI API 格式
Custom Provider ← 或者选这个,手动配置
? Enter provider name: edgefn
? Enter base URL: https://api.edgefn.net/v1
? Enter API key: sk-你的API-Key
? Enter model ID: GLM-5
? Select model API type:
> openai-completions ← 选择这个
? Context window size (tokens): 204800
? Max output tokens: 200000
✓ Model configured successfully!
关键参数说明:
| 参数 | 值 | 说明 |
|---|---|---|
| Provider 名称 | edgefn | 自定义名称,方便识别 |
| Base URL | https://api.edgefn.net/v1 | 白山智算 API 地址 |
| API Key | sk-xxx | 从白山智算控制台获取 |
| 模型 ID | GLM-5 或 MiniMax-M2.5 | 模型标识 |
| 模型 API 类型 | openai-completions | 白山兼容 OpenAI 格式 |
| 上下文窗口 | 204800 | 204.8K 超长上下文 |
| 最大 Token | 200000 | 单次输出上限 |
配置白山智算模型
方法 A:命令行配置(推荐)
openclaw configure
然后按菜单操作:
-> Local (this machine)
-> Model
-> Custom Provider
填写参数同上表。
方法 B:直接编辑配置文件
配置文件位于 ~/.openclaw/openclaw.json:
{
"models": {
"mode": "merge",
"providers": {
"edgefn": {
"baseUrl": "https://api.edgefn.net/v1",
"apiKey": "sk-你的API-Key",
"models": [
{
"id": "MiniMax-M2.5",
"name": "MiniMax-M2.5",
"api": "openai-completions",
"input": ["text"],
"contextWindow": 204800,
"maxTokens": 200000
},
{
"id": "GLM-5",
"name": "GLM-5",
"api": "openai-completions",
"input": ["text"],
"contextWindow": 204800,
"maxTokens": 200000
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "edgefn/GLM-5",
"fallbacks": ["edgefn/MiniMax-M2.5"]
}
}
}
}
方法 C:添加多个模型
如果你想同时使用多个模型,可以继续添加:
openclaw configure
# 选择 Add Model to existing provider
或者在配置文件中添加更多模型:
{
"id": "DeepSeek-V3.2",
"name": "DeepSeek-V3.2",
"api": "openai-completions",
"input": ["text"],
"contextWindow": 128000,
"maxTokens": 8000
}
验证配置
配置完成后,启动 OpenClaw:
# 启动 Gateway 服务
openclaw gateway start
# 测试对话
openclaw chat
或者启动 TUI 界面:
openclaw tui
看到 AI 回复就说明配置成功了!🎉
常见问题
Q: 提示 pnpm: command not found?
# 添加 pnpm 到 PATH
echo 'export PNPM_HOME="$HOME/.local/share/pnpm"' >> ~/.bashrc
echo 'export PATH="$PNPM_HOME:$PATH"' >> ~/.bashrc
source ~/.bashrc
Q: 如何切换默认模型?
openclaw configure
# -> Local -> Agent -> Default Model
Q: 配置文件在哪里?
- 主配置:
~/.openclaw/openclaw.json - 工作区:
~/.openclaw/workspace/
Q: 如何查看当前模型?
openclaw status
进阶:vLLM 模型配置
如果你有自己的 vLLM 服务(比如本地部署或其他平台),配置方式类似:
openclaw configure
# 选择 vLLM (Self-hosted) 或 Custom Provider
配置示例:
{
"models": {
"providers": {
"vllm-local": {
"baseUrl": "http://localhost:8000/v1",
"apiKey": "dummy",
"models": [
{
"id": "Qwen2.5-72B",
"name": "Qwen2.5-72B",
"api": "openai-completions",
"input": ["text"],
"contextWindow": 32768,
"maxTokens": 4096
}
]
}
}
}
}
💡 vLLM 默认不验证 API Key,可以填任意值。
⚠️ 注意事项
- 记得把
sk-xxx替换成你自己的 API Key - 首次调用福利 3月16日截止,抓紧时间!
- 实名认证后体验金秒到账
- 204.8K 上下文真的香,长文档处理神器
💬 总结
白山智算这个平台:
- ✅ 注册就送钱
- ✅ 模型质量在线
- ✅ 超长上下文支持
- ✅ 兼容 OpenAI API 格式
邀请链接:ai.baishan.com/auth/login?…
祝大家都能用上免费的顶级大模型!🎉