OpenClaw限流有救了!免费Nvidia API+阿里云百炼接入指南

0 阅读4分钟

之前买的kimi coding plan 又限流了,先用免费模型顶一顶。

推荐两家,nvidia 和 opencode zen

opencode zen 在openclaw里面原生支持,只需要在模型配置里面输入api key就可以了

nvidia 为了宣传自家的GPU基础设施,提供对当前主流开源模型的支持, 比如千问的 qwen3.5-397b-a17b, 智谱的 glm-5, kimi 的 kimi-k2.5,minimax 的 minimax-m2.1.

nvidia-support-models

官方宣称最高40rpm,实际测试虽然可能没有这么高,但是它免费,模型选择多,并且限速之后等一会就又可以用了,作为免费api可以说是最优选择。比那些groq之流只提供一年前的老旧小模型比要好多了。

Nvidia api 接入

首先要申请api key:

  • 访问 build.nvidia.com/models 注册登录
  • 右上角头像点击-选择 api keys - 点击 Generate API Key 创建
  • 拷贝API key 备用

写入openclaw的配置文件

配置文件一般在 ~/.openclaw/openclaw.json, 在该文件里面加入一下models配置,

"models": {
    "mode": "merge",
    "providers": {
      "nvidia": {
        "baseUrl": "https://integrate.api.nvidia.com/v1",
        "apiKey": "${NVIDIA_API_KEY}",
        "api": "openai-completions",
        "models": [
          { "id": "moonshotai/kimi-k2.5", "name": "Kimi K2.5" ,
            "reasoning": true,
            "input": [
              "text",
              "image"
            ]
          },
          { "id": "minimaxai/minimax-m2.1", "name": "Minimax M2.1" ,
            "reasoning": true,
            "input": [
              "text",
              "image"
            ]
          }
        ]
      }
    }
  }

同时记得在agents.defaults.model.primary 改为你想使用的模型,比如 "nvidia/moonshotai/kimi-k2.5",参考下图:

nvidia-model-config

这里多说一下模型配置参数的含义。models 里面主要看providers这个结构,它定义了不同的模型提供者,比如这里我们写的是nvidia。每一个provider下面可以定义很多个模型,通过id来索引。所以如果逆向添加nvidia的其它模型,就可以按照这个格式来加入。同理如果是其它api的提供者,那就在 "nvidia" 这个层级下加一个类似结构。而agents.defaults.model.primary里面写入"nvidia/moonshotai/kimi-k2.5"就代表使用nvidia下的moonshotai/kimi-k2.5模型。

另外 apiKey 这里 你可以直接把上述的key直接贴入。或者更模块化的方式是在 ~/.openclaw 下面新建一个.env文件,以变量形式写入:

# .env 文件内容
NVIDIA_API_KEY=your_api_key_here

以上配置完成重启gateway就可以了,一般情况更改完openclaw.json会自动重启,如果没有就手动重启

openclaw gateway restart

阿里云百炼 Coding Plan 接入

如果你觉得Nvidia的免费API不够用,或者需要更稳定的调用体验,阿里云百炼的Coding Plan是个不错的补充方案。

之前我写过一篇阿里云部署OpenClaw的教程 阿里云部署OpenClaw:79元/年搭24小时AI代理,算是和云部署闭环了。现在阿里云又推出了Coding Plan活动,Lite基础套餐首月仅需7.9元(原价40元/月),包含18000次调用,性价比很高。

Lite版本最多18000次请求,Pro版本90000次。套餐内不仅有千问系列模型,还支持GLM-5、Kimi K2.5等第三方模型。

不过需要注意,这是首月优惠价。模型更新迭代快,建议按月购买,避免被绑定。

链接在这里:cn.aliyun.com/benefit/sce…

阿里云的套餐和nvidia的模型接入类似,两个都没有openclaw的官方接入点,只能通过openai兼容接口接入, 可以参考以上nvidia接入的方式,在配置文件内修改models参数如下:

(注意,如果要保留nvidia接口,注意不要删除nvidia的配置参数)

"models": {
  "mode": "merge",
  "providers": {
    "bailian": {
      "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
      "apiKey": "YOUR_API_KEY",
      "api": "openai-completions",
      "models": [
        {
          "id": "qwen3.5-plus",
          "name": "qwen3.5-plus",
          "reasoning": false,
          "contextWindow": 1000000,
          "maxTokens": 65536
        },
        {
          "id": "qwen3-max-2026-01-23",
          "name": "qwen3-max-2026-01-23",
          "reasoning": false,
          "contextWindow": 262144,
          "maxTokens": 65536
        },
        {
          "id": "qwen3-coder-next",
          "name": "qwen3-coder-next",
          "contextWindow": 262144,
          "maxTokens": 65536
        },
        {
          "id": "qwen3-coder-plus",
          "name": "qwen3-coder-plus",
          "contextWindow": 1000000,
          "maxTokens": 65536
        },
        {
          "id": "glm-5",
          "name": "glm-5",
          "reasoning": false,
          "contextWindow": 202752,
          "maxTokens": 16384
        },
        {
          "id": "glm-4.7",
          "name": "glm-4.7",
          "reasoning": false,
          "contextWindow": 202752,
          "maxTokens": 16384
        },
        {
          "id": "kimi-k2.5",
          "name": "kimi-k2.5",
          "reasoning": false,
          "contextWindow": 262144,
          "maxTokens": 32768
        }
      ]
    }
  }
}

apikey 和 修改agents.defaults.model.primary跟nvidia的类似,想用哪个模型就把agents.defaults.model.primary改成 对应{provider}/{id}的形式。

总结

Nvidia API和阿里云百炼Coding Plan该如何选择?

Nvidia免费API的优势:

  • 完全免费,无需付费
  • 模型丰富,支持Qwen3.5、GLM-5、Kimi K2.5、MiniMax M2.1等主流模型
  • 适合轻度使用和临时应急

阿里云百炼Coding Plan的优势:

  • 稳定可靠,7.9元/月起
  • 调用次数充足(Lite 18000次/月,Pro 90000次/月)
  • 首月费用低,性价比突出

推荐策略: 两者可以同时配置,Nvidia作为日常主力,阿里云作为备选方案。在openclaw中可以通过切换primary模型灵活切换,非常方便。这样即使一边限流,另一边也能顶上,再也不用忍受漫长的等待了。

openclaw 部署系列文章: