今天打开掘金,热榜第1是教你怎么用 Claude Code 接 GLM-4.7 的。
说实话看完有点感慨——2026年了,AI Coding 工具接个模型,居然还要注册平台→申请Key→配endpoint→调格式,一通折腾?😅
我最近也在折腾 Claude Code 接不同模型,但走了条不同的路:改一个 base_url,50+ 模型随便切换。写篇踩坑记录,给同样在折腾的朋友省点时间。
热榜方案的局限
热榜那篇文章思路很清晰:去智谱开放平台申请 Key,在 Claude Code 里配 GLM-4.7 的 endpoint,然后测前端生成效果。
流程没毛病,但有个很实际的问题——你只接了一个模型。
实际开发中谁只用一个模型啊?写代码用 Claude,快速原型用 GPT-4o,中文文案用 DeepSeek,便宜活用 GLM。按热榜方案,你得:
- 注册 4 个平台账号
- 管理 4 个 API Key
- 配 4 个不同 endpoint
- 处理 4 种错误格式和 rate limit
光注册充值就半天没了 🥲
一行 base_url 解决的事
先看结论,我的配置就改了这点东西:
{
"apiBaseUrl": "https://api.ofox.ai/v1",
"apiKey": "一个统一的key"
}
然后随便切模型:
# GLM-4.7 跑一遍
claude --model glm-4.7
# 换 Claude Opus 对比
claude --model claude-opus-4-6
# GPT-4o 也来
claude --model gpt-4o
# DeepSeek 收个尾
claude --model deepseek-v4
同一个 key,同一个 endpoint,50+ 模型随便切。 就是用了个 API 聚合平台,它把各家 API 统一成了 OpenAI 兼容格式。
为什么 OpenAI 格式兼容这么关键
科普一个很多新手不知道的事:
现在几乎所有 AI Coding 工具——Claude Code、Cursor、Continue、Cline、Windsurf——底层都走 OpenAI Chat Completions 格式。意思是只要你的 API 能返回标准格式,这些工具都能直接用。
POST /v1/chat/completions
{
"model": "你想用的模型",
"messages": [{"role": "user", "content": "..."}],
"stream": true
}
所以核心思路很简单:找一个 OpenAI 格式兼容的 API 中转地址,一次配好,所有工具通用。
我之前在 Cursor 里配 API 地址踩过不少坑,那个 "OpenAI API Base URL" 一直填的官方地址,国内动不动超时。换成聚合平台之后反而稳了——国内直连,不用折腾代理。
实测:4 个模型跑同一个前端任务
公平起见,同一个 prompt 让 4 个模型生成 React Dashboard 组件:
生成一个 React Dashboard:左侧导航栏、顶部 4 个统计卡片、中间折线图+柱状图、底部数据表格。用 Tailwind CSS,响应式布局。
首 token 延迟(北京,单位 ms)
| 模型 | 直连官方 | API 聚合 |
|---|---|---|
| GLM-4.7 | ~380 | ~350 |
| Claude Opus 4.6 | 超时 ❌ | ~1600 |
| GPT-4o | 超时 ❌ | ~580 |
| DeepSeek V4 | ~300 | ~320 |
国产模型差距不大,但海外模型直连基本废的。之前 Cursor 里用 Claude 写代码经常转圈 10 秒+,换了之后稳定 2 秒内,体验差距巨大。
代码质量(我的主观评分)
| 维度 | GLM-4.7 | Opus 4.6 | GPT-4o | DeepSeek V4 |
|---|---|---|---|---|
| 组件结构 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| Tailwind 还原 | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| 响应式处理 | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ |
| 命名规范 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ |
Opus 4.6 前端生成确实第一梯队,但 GLM-4.7 进步很明显,组件拆分比上一代清晰不少。DeepSeek V4 代码规范最好,import 顺序、变量命名都很标准化。
说个有意思的细节:GLM-4.7 生成的图表组件居然自带了 loading 骨架屏,其他三个都没有。小惊喜 😄
Cursor / Continue / Cline 怎么配
顺便把其他工具的配置方法也说了:
Cursor:
Settings → Models → OpenAI API Key → 填聚合 key
Override OpenAI Base URL → https://api.ofox.ai/v1
Continue(config.json):
{
"models": [{
"provider": "openai",
"apiBase": "https://api.ofox.ai/v1",
"apiKey": "你的key",
"model": "claude-opus-4-6"
}]
}
Cline:
Settings → API Provider → OpenAI Compatible
Base URL → https://api.ofox.ai/v1
改完之后在 Model Selector 里就能看到所有可用模型了。一次配好,所有工具通用,比去各家官网单独申请方便太多。
关于成本
有人可能问:中间加一层会不会更贵?
实测价格基本是官方的 1:1 ~ 1.2 倍,但考虑到:
- 省了代理/VPS 成本(30-50 刀/月)
- 不用管 4 个平台的账单
- 海外模型从"用不了"变成"能用"
ROI 是正的。尤其国内没法直连 Claude 和 GPT 的情况下,API 中转基本是唯一稳定方案。
写在最后
看完热榜 Claude Code 接 GLM 的教程,建议先想清楚一个问题:你是只用一个模型,还是要随时切换?
只用一个——按热榜教程配就行,没问题。
要切换——找个 OpenAI 格式兼容的 API 聚合平台,改一行 base_url,50 个模型一次搞定,别把时间浪费在配置上。
我用了一段时间 ofox.ai,体验还行,国内直连不折腾。类似平台不止一家,选顺手的就好。
重点是思路:配置工具是为了写代码,不是为了配置本身。 🚀
你们 Claude Code / Cursor 用的什么 API 方案?评论区聊聊 👇