Claude Code 白嫖指南:不花一分钱,每天用上 Llama 405B 和 Gemini
上周同事看我在终端里跑 Claude Code,问我一个月 API 费花多少。我说零。他不信,我把账单截图发他,确实是 $0.00。
这篇分享一下我是怎么把各家免费配额接到 Claude Code 里的,以及哪些配额值得薅。
先说结论:免费配额比你想的多得多
很多人以为大模型 API 都要花钱,其实 2026 年各家为了抢开发者,免费额度给得很猛。我整理了一下第一梯队的:
| Provider | 免费额度 | 模型 | 速度 |
|---|---|---|---|
| Groq | 14,400 次/天 | Llama 3.3 70B | 750 tok/s |
| Cerebras | 100万 token/天 | Llama 70B | 2000 tok/s |
| SambaNova | 200K token/天 | Llama 405B | 快 |
| Gemini | 免费 | Gemini 系列 | 100万上下文 |
| OpenRouter | 50 次/天 | 30+ 模型 | 看具体模型 |
除此之外还有 Kiro(每月 50 credits + 新用户 500 credits,含 Claude Sonnet)、Windsurf(每月 25 credits + 无限补全)等第二梯队选择。单独用哪个都不够,但叠起来就很可观了。
关键问题是:怎么把这些配额接进 Claude Code?
四种方案,我都试过
方案一:手动切换 API Key
最朴素的方式,每个 Provider 注册一个 Key,Groq 额度用完了手动换 Cerebras。
问题很明显——累。而且每家 API 格式不完全一样,Groq 是 OpenAI 兼容格式,Gemini 又不一样,手动适配很烦。
方案二:LiteLLM
开源项目,Python 写的代理层,支持 100+ Provider 统一调用。功能很全,但配置 YAML 比较长,需要装 Python 环境,对于"我就想白嫖跑个 Claude Code"来说有点重。
方案三:Zero Token 类服务
把你的免费 Key 交给第三方服务统一管理。我不推荐这个——你的凭据要发到别人服务器上,安全隐患大,而且大多违反 Provider 的 ToS,随时可能封号。
方案四:本地代理工具
我目前在用 OpenRelay,单二进制文件、自动管理免费配额、自动格式转换,配置两行环境变量就行。
快速上手(3 分钟)
Step 1:去各家注册免费 API Key(Groq、Cerebras、SambaNova、Gemini,能注册的都注册上)
Step 2:跑一个本地代理工具,把各家 Key 配进去
Step 3:设置 Claude Code 的环境变量指向本地代理:
export ANTHROPIC_BASE_URL=http://localhost:18765
export ANTHROPIC_API_KEY=unused
然后正常用 Claude Code 就行了。代理会自动选可用的 Provider,一个额度用完切下一个,格式转换也是自动的。
实际体验
日常编码:写业务代码、重构函数这种任务,Llama 3.3 70B 完全够用,Groq 的 750 tok/s 响应速度比付费 API 还快。
复杂推理:涉及架构设计或者长上下文分析时,会自动切到 SambaNova 的 Llama 405B 或 Gemini 的百万上下文窗口,效果接近 Claude Sonnet。
一天下来:正常强度编码(大概 50-80 次对话),免费配额从来没用完过。
踩坑提醒
- 代理工具要选本地运行的,凭据不出本机才安全。那些要你把 Key 上传到云端的,趁早别用。
- Groq 的 rate limit 是按分钟算的,高频调用会触发限流。但配了多个 Provider 后自动切换,基本感知不到。
- 别只注册一家,多注册几个 Provider,配额叠加才稳。
你们平时用 Claude Code 接的什么模型?有没有发现其他好用的免费 Provider?欢迎评论交流。
相关资源:
- OpenRelay(我在用的本地代理):github.com/romgX/openr…
- Groq 免费注册:console.groq.com
- Cerebras 免费注册:cloud.cerebras.ai