前言:Anthropic 发布的 Claude Code 确实是目前终端 AI 的颜值与实力天花板。 但作为一个折腾控,我不想被单一模型锁死。如果能用 Claude Code 那套丝滑的 Agentic 交互,底层跑着国产之光 GLM-4,顺便还能继承我积攒多年的 本地私有记忆库,那才是真正的编程完全体。
今天不废话,直接上干货:教你如何抹平模型差异,构建一套“流水的 Agent,铁打的大脑”的终极开发环境。
🛠️ 第一步:内核手术,让 Claude Code 驱动 GLM-4
Claude Code 默认并不支持第三方模型,但我们可以通过 API 桥接工具(如 LiteLLM)进行转发。
1. 为什么是 GLM-4?
在实际测试中,GLM-4 的中文理解能力和逻辑推理非常出色,且 API 极具性价比。通过 LiteLLM,我们可以把 GLM-4 的接口伪装成 Claude API 格式。
2. 启动桥接服务
# 安装 LiteLLM
pip install litellm
# 启动代理:将 GLM-4 映射为 Claude 接口
export ZHIPUAI_API_KEY="你的Key"
litellm --model zhipu/glm-4 --alias claude-3-5-sonnet-20241022 --drop_params
3. 重定向环境变量
我们要让 Claude Code 以为它在请求官方服务器,实际上它连接的是我们本地的代理:
# 强制重定向请求地址
export ANTHROPIC_BASE_URL="http://0.0.0.0:4000"
# 随便写个 Key 绕过启动检查
export ANTHROPIC_API_KEY="sk-fake-key"
# 启动 Claude Code!
claude
至此,你已经拥有了一个拥有 Claude 外壳、GLM 内心的强大工具。
🧠 第二步:灵魂注入,连接 AI_Common 智慧大脑
模型换好了,但它依然是“失忆”的。为了让这个新内核瞬间学会我的代码习惯,我祭出了我的秘密武器:AI_Common。
1. 什么是 AI_Common?
这是我建立的一个基于 Markdown 的本地长期记忆库。它包含:
- L0 显式规则:我的 Vue3/TS 编码规范、Git 提交协议。
- L1 私有复盘:我这几年来修过的所有 Bug 日志(存放在 Milvus 向量库)。
- L2 官方文档:通过 MCP 接入的最新技术手册。
2. 实现“启动即挂载”
Claude Code 不像 Cursor 那样会自动读配置,我给它设计了一个 Alias(别名) 方案。
在 ~/.zshrc 中添加:
alias claude-vibe='claude -p "请立即阅读 ~/Documents/AI_Common/index.md 并初始化 Vibe Coding 上下文。"'
现在,我只需要输入 claude-vibe,它启动后第一件事就是去读取我的 index.md 路由。
效果:GLM-4 内核瞬间觉醒,它立刻知道我不喜欢 any,知道我遇到特定报错该如何处理,甚至能从我的私有复盘日志里找答案。
🌈 总结:跨模型的“记忆大一统”
通过这套架构,我实现了真正的模型自由:
- Gemini CLI:原生接入
AI_Common。 - Codex CLI:通过
/start技能自动加载。 - Claude Code:用着 GLM-4 内核,跑着
claude-vibe模式。
流水的模型,铁打的记忆。 我不必再为每个工具重复声明我的技术偏好,所有的 Agent 都在共享同一套智慧大脑。这就是 AI 编程的下半场:上下文工程(Context Engineering)比模型本身更重要。
🔗 我的大脑地址:webkubor/AI_Common (欢迎 Star,一起构建你的第二大脑)
#AI编程 #ClaudeCode #GLM4 #RAG #程序员效率