英伟达开放120+款顶级模型免费调用(且用且珍惜),DeepSeek-V4、GLM-5.1、Llama-4、Kimi-K2.5全都有。注册秒拿Key,配上OpenClaw,5分钟搭建你的私人AI助手。
先说限制
白嫖有条件,提前了解避免踩坑:
- 速率限制:大模型 ~40 RPM,小模型 ~60 RPM,Token ~12,000 TPM
- 每日请求:大模型约1000次/天,小模型约14400次/天
- 单次Token:max_tokens 上限约4096
- 注册积分:1000积分(注册即送),上限5000,正在过渡到纯速率限制模式
- 用途限制:仅限开发/原型验证,无SLA,请求数据可能被用于模型改进
- 不支持:商业级高并发、长连接、批量推理
结论:个人项目和学习完全够用,别想拿来跑生产服务。
注册拿Key
- 打开 build.nvidia.com
- 注册NVIDIA账号(支持Google/GitHub登录)
- 点击右上角头像 → API Keys → Generate API Key
Expiration选择Never Expire
4. 复制
nvapi-xxxxx
验证:
curl -X GET "https://integrate.api.nvidia.com/v1/models" \
-H "Authorization: Bearer nvapi-你的Key"
返回模型列表即成功。
值得关注的模型
120+款模型,大部分你用不上,挑重点的:
| 模型 | 特点 | 适合 |
|---|---|---|
| deepseek-ai/deepseek-v4-pro | 推理+代码最强 | 复杂推理、编程 |
| deepseek-ai/deepseek-v4-flash | V4快速版 | 日常推理,省额度 |
| z-ai/glm-5.1 | 智谱最新,中文强 | 中文创作、知识问答 |
| meta/llama-4-maverick-17b-128e-instruct | Meta最新MoE | 英文对话、通用任务 |
| moonshotai/kimi-k2.5 | 长上下文 | 长文阅读、文档分析 |
| qwen/qwen3.5-397b-a17b | 阿里最新MoE | 中文全能 |
| qwen/qwen3-coder-480b-a35b-instruct | 480B代码模型 | 代码生成、Debug |
| openai/gpt-oss-120b | OpenAI开源版 | 通用对话 |
| mistralai/mistral-large-3-675b-instruct-2512 | 675B | 长文本、专业分析 |
国产线还有:GLM-5/GLM-4.7、Kimi-K2 Thinking、Qwen3-Next Thinking、DeepSeek-V3.2、字节Seed-OSS-36B、MiniMax-M2.7、阶跃Step-3.5-Flash。
完整列表用上面的curl命令获取。
接入 OpenClaw
安装
npm install -g openclaw
openclaw init
配置模型
编辑 openclaw.json:
"models": {
"mode": "merge",
"providers": {
"nvidia": {
"baseUrl": "https://integrate.api.nvidia.com/v1",
"apiKey": "nvapi-你的Key",
"api": "openai-completions",
"models": [
{
"id": "nvidia/glm-5",
"name": "GLM-5.1 (Pro)",
"contextWindow": 128000,
"maxTokens": 8192
}
]
}
}
}
按需添加更多模型即可。
启动
openclaw start
启动后在飞书、Telegram等平台直接对话。
快速上手
1. build.nvidia.com 注册拿Key ← 2分钟
2. curl验证模型列表 ← 30秒
3. openclaw.json配置,启动开聊 ← 3分钟