一个爆火开源项目,把 Claude Code 的 Anthropic API 流量转发到 NVIDIA NIM、OpenRouter、DeepSeek、LM Studio、llama.cpp、Ollama 等后端。它降低了尝试 Claude Code 工作流的门槛,但也带来兼容性、稳定性和安全边界问题。
开源社区最近冒出一个很直接的项目:Free Claude Code。
它的名字很容易让人误解,以为是“破解 Claude Code”或“免费使用官方 Claude 模型”。但从项目 README 来看,它真正做的是另一件事:提供一个 Anthropic Messages API 兼容代理,让 Claude Code CLI、VS Code 扩展、JetBrains ACP,甚至 Discord / Telegram 机器人,都可以把请求转发到你自己选择的模型后端。
截至页面抓取时,这个仓库已经有约 16.5k stars、2.3k forks,热度不低。项目地址是:
一、它解决的是什么问题?
Claude Code 的强大之处,不只是模型本身,而是围绕“代码仓库里的长期任务”建立了一整套交互方式:读文件、改代码、跑测试、跟踪上下文、在终端和 IDE 里持续协作。
问题在于,很多人想要的是 Claude Code 这套工作流,但不一定想把所有请求都绑定到单一模型或单一官方服务上。
Free Claude Code 的思路是:
- Claude Code 仍然按照 Anthropic Messages API 的方式发请求;
- 本地启动一个代理服务,监听例如 http://localhost:8082;
- 代理把请求转换、路由、流式返回,再转给 NVIDIA NIM、OpenRouter、DeepSeek、本地 LM Studio、llama.cpp 或 Ollama;
- Claude Code 客户端看到的仍然像是一个 Anthropic-compatible endpoint。
换句话说,它试图把 Claude Code 的“客户端体验”和后端模型选择拆开。
二、核心能力:一个 Anthropic 兼容代理
项目的核心不是一个新编辑器,也不是一个新 Agent,而是一个 FastAPI 代理层。
它暴露 Claude Code 需要的接口,例如:
- /v1/messages
- /v1/messages/count_tokens
- /v1/models
然后在内部做几件关键工作:
1. 模型路由
配置里可以设置 MODEL、MODEL_OPUS、MODEL_SONNET、MODEL_HAIKU。
这意味着不同级别的请求可以走不同模型:重任务走更强模型,轻任务走便宜或免费的模型,本地测试走本地模型。
2. 多后端支持
README 里列出的后端包括:
- NVIDIA NIM
- OpenRouter
- DeepSeek
- LM Studio
- llama.cpp
- Ollama
其中 NVIDIA NIM 走 OpenAI chat translation;OpenRouter、DeepSeek、LM Studio、llama.cpp、Ollama 则使用 Anthropic Messages 风格的 transport 或兼容接口。
3. 流式输出和工具调用适配
Claude Code 对流式响应、tool use、thinking block、usage metadata 都比较敏感。这个代理需要把不同供应商返回的格式整理成 Claude Code 能接受的形状。
README 也明确提到:它会规范化 thinking blocks、tool calls、token usage metadata 和 provider errors。
4. 本地请求优化
项目还会对一些 Claude Code 的探测类请求做本地优化,减少延迟和额度消耗。
三、快速开始大概长什么样?
项目要求先安装 Claude Code、uv 和 Python 3.14。
macOS / Linux 上大致是:
curl -LsSf https://astral.sh/uv/install.sh | sh
uv self update
uv python install 3.14
然后克隆项目:
git clone https://github.com/Alishahryar1/free-claude-code.git
cd free-claude-code
cp .env.example .env
在 .env 里选择一个 provider。比如默认的 NVIDIA NIM 路线:
NVIDIA_NIM_API_KEY="***"
MODEL="nvidia_nim/z-ai/glm4.7"
ANTHROPIC_AUTH_TOKEN="***"
启动代理:
uv run uvicorn server:app --host 0.0.0.0 --port 8082
最后启动 Claude Code 时,把 ANTHROPIC_BASE_URL 指向这个代理。注意 README 特别强调:不要在地址后面加 /v1。
Bash 示例:
ANTHROPIC_AUTH_TOKEN="***" ANTHROPIC_BASE_URL="http://localhost:8082" claude
PowerShell 示例:
$env:ANTHROPIC_AUTH_TOKEN="***"; $env:ANTHROPIC_BASE_URL="http://localhost:8082"; claude
如果用 VS Code 扩展,则需要在 claude-code.environmentVariables 里设置 ANTHROPIC_BASE_URL 和 ANTHROPIC_AUTH_TOKEN。
四、为什么这个项目会火?
1. 它抓住了 Claude Code 工作流的价值
对开发者来说,Claude Code 的吸引力不只是“模型会写代码”,而是它能进入仓库上下文,像一个长期协作的命令行伙伴。
Free Claude Code 让更多模型有机会接入这套工作流,所以自然会吸引大量尝鲜用户。
2. 它把“成本”变成可配置项
你可以用 OpenRouter 的免费模型,也可以用 NVIDIA NIM,也可以接本地 LM Studio / llama.cpp / Ollama。
这不代表所有使用都真正免费,但它让用户可以根据任务价值、隐私要求和预算来选后端。
3. 它支持本地模型
对于企业内网、敏感代码仓库、个人离线实验来说,本地模型接入 Claude Code 风格工作流,是一个很有想象力的方向。
4. 它提供了聊天机器人入口
README 提到,项目还支持可选的 Discord 或 Telegram bot wrapper,用于远程 coding sessions,并支持通过本地 Whisper 或 NVIDIA NIM 做语音笔记转写。
这让它不只是一个本地代理,也像是一个远程代码助手网关。
五、但它不是“免费午餐”
这里必须说清楚:Free Claude Code 不是官方 Claude 模型的免费替代品,也不应该被理解为绕过服务限制的工具。
它更像一个兼容层和路由层。你最终使用的模型,仍然取决于你配置的 provider:
- 免费模型可能有额度、排队、限速或质量波动;
- 付费 provider 仍然要计费;
- 本地模型不花 API 费,但需要硬件、上下文长度和工具调用能力;
- 不同 provider 对 tool use、流式输出、长上下文的兼容程度不同。
README 的 troubleshooting 也提到:如果工具调用在一个模型上可用、另一个模型上不可用,不一定是代理坏了,很可能是模型或 provider 本身不支持相应能力。
六、使用前要注意的风险
1. 不要把代理裸奔到公网
配置里的 ANTHROPIC_AUTH_TOKEN 是 Claude Code 与代理之间的认证令牌。README 提醒:可以用任意本地 secret;只有在本地私有测试时才考虑留空。
如果代理监听 0.0.0.0,又没有做好认证和网络隔离,就等于把你的模型额度和代码助手入口暴露出去。
2. 谨慎开启原始日志
README 中列出了一组日志开关,例如 LOG_RAW_SSE_EVENTS、LOG_RAW_MESSAGING_CONTENT、LOG_RAW_CLI_DIAGNOSTICS 等,并提醒这些原始日志可能暴露 prompts、工具参数、路径和模型输出。
调试时可以临时打开,平时应该保持关闭。
3. 本地 web tools 要控制访问范围
项目支持本地 web tools,但 README 建议保持 WEB_FETCH_ALLOW_PRIVATE_NETWORKS=false,除非处在受控实验环境。
这类工具一旦能访问内网地址,就要认真考虑 SSRF、凭据泄露和内网探测风险。
4. 模型质量会直接影响代码安全
Claude Code 工作流会修改文件、执行命令、生成补丁。后端模型如果推理能力不足、工具调用格式不稳定,可能造成错误改动。
建议从低风险仓库开始测试,开启 git 版本控制,重要操作前看 diff,关键项目跑完整测试。
七、适合哪些人?
我认为它适合三类用户:
- 想体验 Claude Code 工作流,但希望用更多 provider 做实验的开发者;
- 已经有 OpenRouter、NVIDIA NIM、DeepSeek 或本地模型环境,想统一接入 Claude Code 客户端的人;
- 关注 Anthropic-compatible API、模型路由、SSE 流式适配、tool use 兼容层的开发者。
不太适合:
- 期待“完全免费、完全稳定、完全等同 Claude 官方模型”的用户;
- 不熟悉 API key、环境变量、端口暴露和本地服务安全的人;
- 希望在生产代码仓库里直接无审查运行的人。
八、它的真正意义
Free Claude Code 的热度说明了一件事:开发者正在把 AI 编程工具拆成两层来看。
第一层是客户端工作流:终端、IDE、代码仓库上下文、工具调用、任务记忆、测试闭环。
第二层是模型供应:官方模型、第三方路由、本地模型、免费模型、企业私有模型。
过去,这两层经常被绑定在一起。现在,越来越多开源项目在尝试把它们解耦。
Free Claude Code 不一定是最终形态,也不一定适合每个人长期使用。但它指向了一个很清晰的趋势:未来的 AI 编程环境,可能会像数据库连接字符串一样,让你自由选择后端模型;而开发体验本身,则由稳定的客户端和协议来承载。
结语
如果你把它当成“免费 Claude”,大概率会失望;如果你把它当成“Claude Code 工作流的模型路由实验场”,它就很有价值。
它最值得关注的地方,不是名字里的 free,而是它展示了 AI 编程工具的下一种架构:客户端体验、协议兼容层、模型供应商,三者开始分离。
对开发者来说,这意味着更多选择;对工具生态来说,这意味着更激烈的协议与体验竞争。
更多内容欢迎关注公众号:
