养虾人注意,白嫖大模型!OpenClaw + 白山智算,免费体验 MiniMax-M2.5/GLM-5/DeepSeek-V3.2

55 阅读8分钟

白嫖大模型!OpenClaw + 白山智算,免费体验 MiniMax-M2.5/GLM-5/DeepSeek-V3.2

还在为 AI 大模型的 Token 费用发愁吗?还在纠结用哪个模型最划算吗?

今天分享一个宝藏平台——白山智算,推广期间注册就送体验金,让你免费畅玩多款顶级大模型!


🎁 注册福利

活动奖励
新用户注册 + 实名认证150元 体验金
首次通过 API 调用 AI 模型再送 300元 体验金(3月16日前)

合计最高送 ¥450! 完全够你玩一阵子了 👀


🤖 支持的大模型

  • MiniMax-M2.5 — 国产顶流,推理能力强
  • GLM-5 — 智谱出品,长上下文王者
  • DeepSeek-V3.2 — 性价比之王

重点来了:MiniMax-M2.5 和 GLM-5 支持 204.8K 超长上下文! 扔进去一整本书都没问题 📚


🔗 注册地址

邀请链接(用这个注册有福利哦):

👉 ai.baishan.com/auth/login?…

欢迎兄弟们使用邀请链接注册,大家一起薅羊毛!🤝


⚙️ OpenClaw 配置教程

方案一:快速开始(推荐新手)

如果你已经安装了 OpenClaw,直接跳到 配置白山智算模型


方案二:从零开始安装 OpenClaw

第一步:安装前置依赖

OpenClaw 需要 Node.js 22+ 环境。

Ubuntu/Debian:

# 方法一:使用 nvm 安装(推荐,方便切换版本)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash
source ~/.bashrc
nvm install 22
nvm use 22

# 方法二:国内镜像加速安装
# 设置 nvm 镜像源
export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node
nvm install 22
nvm use 22

# 永久设置镜像(可选)
echo 'export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node' >> ~/.bashrc

macOS:

# 方法一:使用 Homebrew
brew install node@22

# 方法二:使用 nvm(推荐)
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh | bash
source ~/.zshrc  # 或 ~/.bash_profile
nvm install 22
nvm use 22

# 国内镜像加速
export NVM_NODEJS_ORG_MIRROR=https://npmmirror.com/mirrors/node
nvm install 22

Windows(小白专用教程):

🎯 先说结论:Windows 推荐直接下载安装包,最简单!

方法一:官方安装包(最简单,推荐新手)

  1. 下载 Node.js

    • 打开浏览器,访问:nodejs.org/zh-cn/downl…
    • 选择版本:22.x LTS(长期支持版)
    • 下载 Windows 安装包(.msi 文件)
  2. 安装 Node.js

    • 双击下载的 .msi 文件
    • 一路点击「Next」,保持默认选项即可
    • 重要:安装时勾选「Automatically install the necessary tools...」(自动安装必要工具)
    • 安装完成后,重启电脑(让环境变量生效)
  3. 验证安装

    • Win + R,输入 cmd,回车
    • 在黑色窗口中输入:
    node --version
    
    • 如果显示 v22.x.x,说明安装成功!

方法二:nvm-windows(适合需要切换版本的用户)

💡 nvm 可以安装多个 Node.js 版本并随意切换

  1. 下载 nvm-windows

  2. 配置国内镜像(加速下载)

    • 找到 nvm 安装目录(默认 C:\Users\你的用户名\AppData\Roaming\nvm
    • 用记事本打开 settings.txt,添加以下内容:
    node_mirror: https://npmmirror.com/mirrors/node/
    npm_mirror: https://npmmirror.com/mirrors/npm/
    
  3. 安装 Node.js

    • 打开「命令提示符」或「PowerShell」
    • 输入以下命令:
    nvm install 22
    nvm use 22
    
  4. 验证

    node --version
    nvm list
    

⚠️ Windows 常见问题:

❓ 点击展开常见问题解答

Q1: 输入 node 提示「不是内部或外部命令」?

这说明 Node.js 没有添加到系统环境变量。解决方法:

  1. 右键「此电脑」→「属性」→「高级系统设置」
  2. 点击「环境变量」
  3. 在「系统变量」中找到 Path,点击「编辑」
  4. 添加 Node.js 安装路径,例如:
    • C:\Program Files\nodejs\
  5. 点击确定,重启命令行窗口

Q2: 安装时提示权限不足?

  • 右键点击安装包 →「以管理员身份运行」
  • 或者关闭杀毒软件后再安装

Q3: 怎么打开命令行?

  • 方法一:按 Win + R,输入 cmd,回车
  • 方法二:按 Win + X,选择「终端」或「Windows PowerShell」
  • 方法三:在开始菜单搜索「命令提示符」

Q4: PowerShell 和 cmd 有什么区别?

都能用,PowerShell 更现代(蓝色窗口),cmd 更经典(黑色窗口)。教程里的命令在两个里面都能运行。

Q5: 怎么粘贴命令到命令行?

  • 在 cmd 中:右键点击窗口即可粘贴
  • 在 PowerShell 中:可以用 Ctrl + V
  • 或者先复制命令,然后在命令行窗口右键

Q6: 命令输入一半想取消怎么办?

Ctrl + C 取消当前输入

Q7: 怎么查看当前目录?

输入 cd 然后回车,会显示当前所在文件夹


验证安装(所有系统):

node --version  # 应显示 v22.x.x
npm --version   # 应显示 10.x.x

如果显示版本号,恭喜你,环境准备完成!🎉

第二步:安装 OpenClaw

🎯 Windows 用户注意:以下命令在「命令提示符」或「PowerShell」中都可以运行

2.1 安装 pnpm(包管理工具)

pnpm 是用来安装 OpenClaw 的工具,先安装它:

# 方法一:使用 corepack(推荐,Node.js 自带)
corepack enable
corepack prepare pnpm@latest --activate

# 方法二:使用 npm 安装
npm install -g pnpm

2.2 配置国内镜像源(国内必做,加速下载)

pnpm config set registry https://registry.npmmirror.com

2.3 安装 OpenClaw

pnpm add -g openclaw

⚠️ 如果提示「找不到版本」或「No matching version」: 说明国内镜像还没同步最新版本,临时使用官方源:

pnpm add -g openclaw --registry https://registry.npmjs.org

2.4 验证安装

openclaw --version

如果显示版本号(如 OpenClaw 2026.3.8),恭喜安装成功!🎉


⚠️ Windows 安装常见问题:

❓ 点击展开常见问题解答

Q1: 输入 pnpm 提示「不是内部或外部命令」?

pnpm 没有添加到环境变量。解决方法:

  1. 找到 pnpm 安装位置,通常在:
    • C:\Users\你的用户名\AppData\Local\pnpm
  2. 将这个路径添加到系统环境变量 Path
  3. 重启命令行窗口

或者直接运行:

# PowerShell 中执行,自动配置环境变量
pnpm setup

Q2: 安装时提示权限错误?

以管理员身份运行命令行:

  • 搜索「cmd」或「PowerShell」
  • 右键 →「以管理员身份运行」

Q3: 提示「无法加载文件...因为在此系统上禁止运行脚本」?

这是 PowerShell 的安全策略限制,执行以下命令解除:

Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser

Q4: 安装很慢或卡住?

检查镜像源是否配置正确:

pnpm config get registry

应该显示 https://registry.npmmirror.com/,如果不是,重新设置。

Q5: 怎么更新 OpenClaw?

pnpm update -g openclaw

Q6: 怎么卸载 OpenClaw?

pnpm remove -g openclaw

💡 国内镜像说明:

  • registry.npmmirror.com — 淘宝镜像,更新快,推荐
  • mirrors.tencentyun.com/npm — 腾讯云镜像
  • 镜像同步有延迟,最新版本可能需要等几小时
第三步:运行 Onboard 向导

首次安装后,运行 onboard 配置:

openclaw onboard

向导会引导你完成以下配置:

╭─────────────────────────────────────────────────────────────╮
│  🐾 Welcome to OpenClaw! Let's get you set up.              │
╰─────────────────────────────────────────────────────────────╯

? What would you like to configure first?
  > Model Provider  ← 选择这个,配置 AI 模型
    Storage Location
    Skip for now

? Choose your model provider:
    OpenAI
    Anthropic
    Google Gemini
    DeepSeek
    vLLM (Self-hosted)  ← 选择这个,兼容 OpenAI API 格式
    Custom Provider     ← 或者选这个,手动配置

? Enter provider name: edgefn

? Enter base URL: https://api.edgefn.net/v1

? Enter API key: sk-你的API-Key

? Enter model ID: GLM-5

? Select model API type:
  > openai-completions  ← 选择这个

? Context window size (tokens): 204800

? Max output tokens: 200000

✓ Model configured successfully!

关键参数说明:

参数说明
Provider 名称edgefn自定义名称,方便识别
Base URLhttps://api.edgefn.net/v1白山智算 API 地址
API Keysk-xxx从白山智算控制台获取
模型 IDGLM-5MiniMax-M2.5模型标识
模型 API 类型openai-completions白山兼容 OpenAI 格式
上下文窗口204800204.8K 超长上下文
最大 Token200000单次输出上限

配置白山智算模型

方法 A:命令行配置(推荐)
openclaw configure

然后按菜单操作:

-> Local (this machine)
   -> Model
      -> Custom Provider

填写参数同上表。

方法 B:直接编辑配置文件

配置文件位于 ~/.openclaw/openclaw.json

{
  "models": {
    "mode": "merge",
    "providers": {
      "edgefn": {
        "baseUrl": "https://api.edgefn.net/v1",
        "apiKey": "sk-你的API-Key",
        "models": [
          {
            "id": "MiniMax-M2.5",
            "name": "MiniMax-M2.5",
            "api": "openai-completions",
            "input": ["text"],
            "contextWindow": 204800,
            "maxTokens": 200000
          },
          {
            "id": "GLM-5",
            "name": "GLM-5",
            "api": "openai-completions",
            "input": ["text"],
            "contextWindow": 204800,
            "maxTokens": 200000
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "edgefn/GLM-5",
        "fallbacks": ["edgefn/MiniMax-M2.5"]
      }
    }
  }
}
方法 C:添加多个模型

如果你想同时使用多个模型,可以继续添加:

openclaw configure
# 选择 Add Model to existing provider

或者在配置文件中添加更多模型:

{
  "id": "DeepSeek-V3.2",
  "name": "DeepSeek-V3.2",
  "api": "openai-completions",
  "input": ["text"],
  "contextWindow": 128000,
  "maxTokens": 8000
}

验证配置

配置完成后,启动 OpenClaw:

# 启动 Gateway 服务
openclaw gateway start

# 测试对话
openclaw chat

或者启动 TUI 界面:

openclaw tui

看到 AI 回复就说明配置成功了!🎉


常见问题

Q: 提示 pnpm: command not found

# 添加 pnpm 到 PATH
echo 'export PNPM_HOME="$HOME/.local/share/pnpm"' >> ~/.bashrc
echo 'export PATH="$PNPM_HOME:$PATH"' >> ~/.bashrc
source ~/.bashrc

Q: 如何切换默认模型?

openclaw configure
# -> Local -> Agent -> Default Model

Q: 配置文件在哪里?

  • 主配置:~/.openclaw/openclaw.json
  • 工作区:~/.openclaw/workspace/

Q: 如何查看当前模型?

openclaw status

进阶:vLLM 模型配置

如果你有自己的 vLLM 服务(比如本地部署或其他平台),配置方式类似:

openclaw configure
# 选择 vLLM (Self-hosted) 或 Custom Provider

配置示例:

{
  "models": {
    "providers": {
      "vllm-local": {
        "baseUrl": "http://localhost:8000/v1",
        "apiKey": "dummy",
        "models": [
          {
            "id": "Qwen2.5-72B",
            "name": "Qwen2.5-72B",
            "api": "openai-completions",
            "input": ["text"],
            "contextWindow": 32768,
            "maxTokens": 4096
          }
        ]
      }
    }
  }
}

💡 vLLM 默认不验证 API Key,可以填任意值。


⚠️ 注意事项

  1. 记得把 sk-xxx 替换成你自己的 API Key
  2. 首次调用福利 3月16日截止,抓紧时间!
  3. 实名认证后体验金秒到账
  4. 204.8K 上下文真的香,长文档处理神器

💬 总结

白山智算这个平台:

  • ✅ 注册就送钱
  • ✅ 模型质量在线
  • ✅ 超长上下文支持
  • ✅ 兼容 OpenAI API 格式

邀请链接ai.baishan.com/auth/login?…

祝大家都能用上免费的顶级大模型!🎉