白嫖 Claude 最强模型!这个开源项目让你免费用上 claude-opus、claude-sonnet 小龙虾

0 阅读4分钟

白嫖 Claude 最强模型!这个开源项目让你免费用上 claude-opus、claude-sonnet

前言

Claude 好用吗?好用。贵吗?贵。

官方 API 按 token 计费,claude-opus 更是价格感人。但最近发现一个开源项目,能让你完全免费调用 Claude 的全系列模型,包括最新的 claude-opus-4.6、claude-sonnet-4.5,还能对接 ChatGPT-Next-Web、LobeChat 等你熟悉的客户端。

项目地址:github.com/simkeke/kir…

2a3122a8250e5d7306d9d3d5a61b2c68.png


原理是什么?

Kiro 是亚马逊推出的 AI 编程 IDE,免费账号自带 Claude 模型调用额度

这个项目做的事情很简单:把 Kiro 的私有接口,转换成标准的 OpenAI / Anthropic API 格式暴露出来。你的应用、你的客户端,照常调用标准接口,背后走的是 Kiro 的免费额度。

你的应用 / ChatGPT-Next-Web / LobeChat
        ↓ 标准 OpenAI / Anthropic API
   ┌─────────────────────┐
   │   LLM Free API      │
   └─────────────────────┘
        ↓ 私有协议转换
         Kiro (AWS Claude)

支持哪些模型?

模型说明
claude-opus-4.6Claude 最强模型,复杂推理首选
claude-sonnet-4.5均衡性能,编程写作通用
claude-sonnet-4上一代 Sonnet,稳定可靠
claude-haiku-4.5轻量快速,高频调用
deepseek-3.2DeepSeek MoE,编程推理出色
glm-5智谱 GLM,中文能力强
qwen3-coder-next通义千问编程专用

具体可用模型取决于你的 Kiro 账号套餐,免费账号已经够用。


5 分钟跑起来

第一步:注册 Kiro 账号

kiro.dev 注册并下载 Kiro IDE,登录一次即可。

登录后,凭据文件会自动生成在:

~/.aws/sso/cache/kiro-auth-token.json

打开这个文件,复制 refreshToken 字段的值,后面要用。

第二步:克隆项目

git clone https://github.com/simkeke/kiro_proxy_gateway.git
cd kiro_proxy_gateway

python -m venv .venv
# Windows:
.venv\Scripts\activate
# Linux/Mac:
source .venv/bin/activate

pip install -r requirements.txt

第三步:填写配置

cp .env.example .env
cp channels.yaml.example channels.yaml

编辑 channels.yaml,把 refresh_token 换成你刚才复制的值:

channel_groups:
  - name: kiro
    type: kiro
    priority: 1
    strategy: ordered
    channels:
      - name: kiro-account-1
        priority: 1
        refresh_token: "粘贴你的refreshToken"
        region: us-east-1
        max_concurrency: 1

第四步:启动

python -m app.main

服务跑在 http://localhost:8800,打开 http://localhost:8800/docs 可以看到完整的 Swagger 文档。


怎么用?

直接 curl 测试

curl -X POST http://localhost:8800/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "claude-sonnet-4",
    "messages": [{"role": "user", "content": "你好"}],
    "stream": true
  }'

对接 ChatGPT-Next-Web / LobeChat

在客户端设置里,把 API 地址改成:

http://localhost:8800

选 OpenAI 模式,API Key 随便填一个,就能直接用 Claude 了。

OpenClaw(小龙虾)接入

OpenClaw 是最近爆火的开源 AI 编程 Agent,GitHub 250K+ Stars,核心靠 Claude 驱动。但官方 API 要钱,国产模型智力又跟不上——这个项目完美解决这个问题。

OpenClaw 完全兼容 OpenAI 格式,直接把 API 地址指向本地服务即可:

# 安装 OpenClaw
npm install -g openclaw  # 或按官方文档安装

# 设置环境变量,指向本地免费 Claude 服务
export ANTHROPIC_BASE_URL=http://localhost:8800
export ANTHROPIC_API_KEY=any-string

或者在 OpenClaw 配置文件中设置:

{
  "apiBaseUrl": "http://localhost:8800",
  "apiKey": "any-string",
  "model": "claude-sonnet-4.5"
}

这样 OpenClaw 跑的每一行代码,背后都是免费的 Claude,完全白嫖

LangChain 接入

LangChain 原生支持 OpenAI 和 Anthropic 两种接口,直接把 base_url 指向本地服务即可。

方式一:使用 ChatOpenAI(推荐)

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    model="claude-sonnet-4.5",
    openai_api_key="any-string",       # 随便填,不校验
    openai_api_base="http://localhost:8800/v1",
)

response = llm.invoke("用 Python 写一个快速排序")
print(response.content)

方式二:使用 ChatAnthropic

from langchain_anthropic import ChatAnthropic

llm = ChatAnthropic(
    model="claude-sonnet-4.5",
    anthropic_api_key="any-string",
    anthropic_api_url="http://localhost:8800",
)

response = llm.invoke("用 Python 写一个快速排序")
print(response.content)

流式输出

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    model="claude-opus-4.6",
    openai_api_key="any-string",
    openai_api_base="http://localhost:8800/v1",
    streaming=True,
)

for chunk in llm.stream("介绍一下你自己"):
    print(chunk.content, end="", flush=True)

配合 LangChain Chain / LCEL 使用

from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

llm = ChatOpenAI(
    model="claude-sonnet-4.5",
    openai_api_key="any-string",
    openai_api_base="http://localhost:8800/v1",
)

prompt = ChatPromptTemplate.from_messages([
    ("system", "你是一个专业的代码审查专家。"),
    ("human", "{input}"),
])

chain = prompt | llm | StrOutputParser()

result = chain.invoke({"input": "帮我审查这段代码是否有安全问题:SELECT * FROM users WHERE id = " + user_input})
print(result)

有哪些亮点?

  • 双协议兼容:同时支持 OpenAI 和 Anthropic 两种接口格式
  • 多账号轮询:配置多个 Kiro 账号,自动负载均衡,额度翻倍
  • 流式响应:完整支持 SSE 流式输出,打字机效果正常
  • 智能限流:并发控制 + 协程排队,不会因为并发打爆账号
  • 插件式扩展:后续接入新渠道无需改核心代码,架构很干净

多账号配置(额度翻倍)

有多个 Kiro 账号?直接在 channels.yaml 里叠加:

channels:
  - name: kiro-account-1
    priority: 1
    refresh_token: "token1"
    region: us-east-1
    max_concurrency: 1

  - name: kiro-account-2
    priority: 2
    refresh_token: "token2"
    region: us-east-1
    max_concurrency: 1

支持 ordered(按优先级)、round_robin(轮询)、random(随机)三种路由策略。


总结

如果你:

  • 想用 Claude 但不想花钱
  • 有现成的 OpenAI 兼容客户端想接 Claude

这个项目值得一试。配置简单,5 分钟能跑起来,架构也足够清晰,有兴趣的可以自己扩展新渠道。

项目地址:github.com/simkeke/kir…

觉得有用的话,去点个 Star ⭐ 支持一下作者。


⚠️ 免责声明:本项目仅供学习和研究使用,严禁用于任何商业用途。使用者需自行承担使用风险。