让 Claude Code 接上“免费/本地模型”:Free Claude Code 项目到底做了什么?

0 阅读8分钟

一个爆火开源项目,把 Claude Code 的 Anthropic API 流量转发到 NVIDIA NIM、OpenRouter、DeepSeek、LM Studio、llama.cpp、Ollama 等后端。它降低了尝试 Claude Code 工作流的门槛,但也带来兼容性、稳定性和安全边界问题。

文章封面

开源社区最近冒出一个很直接的项目:Free Claude Code。

它的名字很容易让人误解,以为是“破解 Claude Code”或“免费使用官方 Claude 模型”。但从项目 README 来看,它真正做的是另一件事:提供一个 Anthropic Messages API 兼容代理,让 Claude Code CLI、VS Code 扩展、JetBrains ACP,甚至 Discord / Telegram 机器人,都可以把请求转发到你自己选择的模型后端。

截至页面抓取时,这个仓库已经有约 16.5k stars、2.3k forks,热度不低。项目地址是:

github.com/Alishahryar…

一、它解决的是什么问题?

Claude Code 的强大之处,不只是模型本身,而是围绕“代码仓库里的长期任务”建立了一整套交互方式:读文件、改代码、跑测试、跟踪上下文、在终端和 IDE 里持续协作。

问题在于,很多人想要的是 Claude Code 这套工作流,但不一定想把所有请求都绑定到单一模型或单一官方服务上。

Free Claude Code 的思路是:

  • Claude Code 仍然按照 Anthropic Messages API 的方式发请求;
  • 本地启动一个代理服务,监听例如 http://localhost:8082;
  • 代理把请求转换、路由、流式返回,再转给 NVIDIA NIM、OpenRouter、DeepSeek、本地 LM Studio、llama.cpp 或 Ollama;
  • Claude Code 客户端看到的仍然像是一个 Anthropic-compatible endpoint。

换句话说,它试图把 Claude Code 的“客户端体验”和后端模型选择拆开。

二、核心能力:一个 Anthropic 兼容代理

项目的核心不是一个新编辑器,也不是一个新 Agent,而是一个 FastAPI 代理层。

它暴露 Claude Code 需要的接口,例如:

  • /v1/messages
  • /v1/messages/count_tokens
  • /v1/models

然后在内部做几件关键工作:

1. 模型路由

配置里可以设置 MODEL、MODEL_OPUS、MODEL_SONNET、MODEL_HAIKU。

这意味着不同级别的请求可以走不同模型:重任务走更强模型,轻任务走便宜或免费的模型,本地测试走本地模型。

2. 多后端支持

README 里列出的后端包括:

  • NVIDIA NIM
  • OpenRouter
  • DeepSeek
  • LM Studio
  • llama.cpp
  • Ollama

其中 NVIDIA NIM 走 OpenAI chat translation;OpenRouter、DeepSeek、LM Studio、llama.cpp、Ollama 则使用 Anthropic Messages 风格的 transport 或兼容接口。

3. 流式输出和工具调用适配

Claude Code 对流式响应、tool use、thinking block、usage metadata 都比较敏感。这个代理需要把不同供应商返回的格式整理成 Claude Code 能接受的形状。

README 也明确提到:它会规范化 thinking blocks、tool calls、token usage metadata 和 provider errors。

4. 本地请求优化

项目还会对一些 Claude Code 的探测类请求做本地优化,减少延迟和额度消耗。

三、快速开始大概长什么样?

项目要求先安装 Claude Code、uv 和 Python 3.14。

macOS / Linux 上大致是:

curl -LsSf https://astral.sh/uv/install.sh | sh
uv self update
uv python install 3.14

然后克隆项目:

git clone https://github.com/Alishahryar1/free-claude-code.git
cd free-claude-code
cp .env.example .env

在 .env 里选择一个 provider。比如默认的 NVIDIA NIM 路线:

NVIDIA_NIM_API_KEY="***"
MODEL="nvidia_nim/z-ai/glm4.7"
ANTHROPIC_AUTH_TOKEN="***"

启动代理:

uv run uvicorn server:app --host 0.0.0.0 --port 8082

最后启动 Claude Code 时,把 ANTHROPIC_BASE_URL 指向这个代理。注意 README 特别强调:不要在地址后面加 /v1。

Bash 示例:

ANTHROPIC_AUTH_TOKEN="***" ANTHROPIC_BASE_URL="http://localhost:8082" claude

PowerShell 示例:

$env:ANTHROPIC_AUTH_TOKEN="***"; $env:ANTHROPIC_BASE_URL="http://localhost:8082"; claude

如果用 VS Code 扩展,则需要在 claude-code.environmentVariables 里设置 ANTHROPIC_BASE_URL 和 ANTHROPIC_AUTH_TOKEN。

四、为什么这个项目会火?

1. 它抓住了 Claude Code 工作流的价值

对开发者来说,Claude Code 的吸引力不只是“模型会写代码”,而是它能进入仓库上下文,像一个长期协作的命令行伙伴。

Free Claude Code 让更多模型有机会接入这套工作流,所以自然会吸引大量尝鲜用户。

2. 它把“成本”变成可配置项

你可以用 OpenRouter 的免费模型,也可以用 NVIDIA NIM,也可以接本地 LM Studio / llama.cpp / Ollama。

这不代表所有使用都真正免费,但它让用户可以根据任务价值、隐私要求和预算来选后端。

3. 它支持本地模型

对于企业内网、敏感代码仓库、个人离线实验来说,本地模型接入 Claude Code 风格工作流,是一个很有想象力的方向。

4. 它提供了聊天机器人入口

README 提到,项目还支持可选的 Discord 或 Telegram bot wrapper,用于远程 coding sessions,并支持通过本地 Whisper 或 NVIDIA NIM 做语音笔记转写。

这让它不只是一个本地代理,也像是一个远程代码助手网关。

五、但它不是“免费午餐”

这里必须说清楚:Free Claude Code 不是官方 Claude 模型的免费替代品,也不应该被理解为绕过服务限制的工具。

它更像一个兼容层和路由层。你最终使用的模型,仍然取决于你配置的 provider:

  • 免费模型可能有额度、排队、限速或质量波动;
  • 付费 provider 仍然要计费;
  • 本地模型不花 API 费,但需要硬件、上下文长度和工具调用能力;
  • 不同 provider 对 tool use、流式输出、长上下文的兼容程度不同。

README 的 troubleshooting 也提到:如果工具调用在一个模型上可用、另一个模型上不可用,不一定是代理坏了,很可能是模型或 provider 本身不支持相应能力。

六、使用前要注意的风险

1. 不要把代理裸奔到公网

配置里的 ANTHROPIC_AUTH_TOKEN 是 Claude Code 与代理之间的认证令牌。README 提醒:可以用任意本地 secret;只有在本地私有测试时才考虑留空。

如果代理监听 0.0.0.0,又没有做好认证和网络隔离,就等于把你的模型额度和代码助手入口暴露出去。

2. 谨慎开启原始日志

README 中列出了一组日志开关,例如 LOG_RAW_SSE_EVENTS、LOG_RAW_MESSAGING_CONTENT、LOG_RAW_CLI_DIAGNOSTICS 等,并提醒这些原始日志可能暴露 prompts、工具参数、路径和模型输出。

调试时可以临时打开,平时应该保持关闭。

3. 本地 web tools 要控制访问范围

项目支持本地 web tools,但 README 建议保持 WEB_FETCH_ALLOW_PRIVATE_NETWORKS=false,除非处在受控实验环境。

这类工具一旦能访问内网地址,就要认真考虑 SSRF、凭据泄露和内网探测风险。

4. 模型质量会直接影响代码安全

Claude Code 工作流会修改文件、执行命令、生成补丁。后端模型如果推理能力不足、工具调用格式不稳定,可能造成错误改动。

建议从低风险仓库开始测试,开启 git 版本控制,重要操作前看 diff,关键项目跑完整测试。

七、适合哪些人?

我认为它适合三类用户:

  • 想体验 Claude Code 工作流,但希望用更多 provider 做实验的开发者;
  • 已经有 OpenRouter、NVIDIA NIM、DeepSeek 或本地模型环境,想统一接入 Claude Code 客户端的人;
  • 关注 Anthropic-compatible API、模型路由、SSE 流式适配、tool use 兼容层的开发者。

不太适合:

  • 期待“完全免费、完全稳定、完全等同 Claude 官方模型”的用户;
  • 不熟悉 API key、环境变量、端口暴露和本地服务安全的人;
  • 希望在生产代码仓库里直接无审查运行的人。

八、它的真正意义

Free Claude Code 的热度说明了一件事:开发者正在把 AI 编程工具拆成两层来看。

第一层是客户端工作流:终端、IDE、代码仓库上下文、工具调用、任务记忆、测试闭环。

第二层是模型供应:官方模型、第三方路由、本地模型、免费模型、企业私有模型。

过去,这两层经常被绑定在一起。现在,越来越多开源项目在尝试把它们解耦。

Free Claude Code 不一定是最终形态,也不一定适合每个人长期使用。但它指向了一个很清晰的趋势:未来的 AI 编程环境,可能会像数据库连接字符串一样,让你自由选择后端模型;而开发体验本身,则由稳定的客户端和协议来承载。

结语

如果你把它当成“免费 Claude”,大概率会失望;如果你把它当成“Claude Code 工作流的模型路由实验场”,它就很有价值。

它最值得关注的地方,不是名字里的 free,而是它展示了 AI 编程工具的下一种架构:客户端体验、协议兼容层、模型供应商,三者开始分离。

对开发者来说,这意味着更多选择;对工具生态来说,这意味着更激烈的协议与体验竞争。


更多内容欢迎关注公众号:

公众号关注二维码