Claude Code 只能用 Claude?我反手换上 GLM-4 内核,并挂载了我的私有智慧大脑

120 阅读3分钟

前言:Anthropic 发布的 Claude Code 确实是目前终端 AI 的颜值与实力天花板。 但作为一个折腾控,我不想被单一模型锁死。如果能用 Claude Code 那套丝滑的 Agentic 交互,底层跑着国产之光 GLM-4,顺便还能继承我积攒多年的 本地私有记忆库,那才是真正的编程完全体。

今天不废话,直接上干货:教你如何抹平模型差异,构建一套“流水的 Agent,铁打的大脑”的终极开发环境。

🛠️ 第一步:内核手术,让 Claude Code 驱动 GLM-4

Claude Code 默认并不支持第三方模型,但我们可以通过 API 桥接工具(如 LiteLLM)进行转发。

1. 为什么是 GLM-4?

在实际测试中,GLM-4 的中文理解能力和逻辑推理非常出色,且 API 极具性价比。通过 LiteLLM,我们可以把 GLM-4 的接口伪装成 Claude API 格式。

2. 启动桥接服务

# 安装 LiteLLM
pip install litellm

# 启动代理:将 GLM-4 映射为 Claude 接口
export ZHIPUAI_API_KEY="你的Key"
litellm --model zhipu/glm-4 --alias claude-3-5-sonnet-20241022 --drop_params

3. 重定向环境变量

我们要让 Claude Code 以为它在请求官方服务器,实际上它连接的是我们本地的代理:

# 强制重定向请求地址
export ANTHROPIC_BASE_URL="http://0.0.0.0:4000"
# 随便写个 Key 绕过启动检查
export ANTHROPIC_API_KEY="sk-fake-key"

# 启动 Claude Code!
claude

至此,你已经拥有了一个拥有 Claude 外壳、GLM 内心的强大工具。


🧠 第二步:灵魂注入,连接 AI_Common 智慧大脑

模型换好了,但它依然是“失忆”的。为了让这个新内核瞬间学会我的代码习惯,我祭出了我的秘密武器:AI_Common

1. 什么是 AI_Common?

这是我建立的一个基于 Markdown 的本地长期记忆库。它包含:

  • L0 显式规则:我的 Vue3/TS 编码规范、Git 提交协议。
  • L1 私有复盘:我这几年来修过的所有 Bug 日志(存放在 Milvus 向量库)。
  • L2 官方文档:通过 MCP 接入的最新技术手册。

2. 实现“启动即挂载”

Claude Code 不像 Cursor 那样会自动读配置,我给它设计了一个 Alias(别名) 方案。

~/.zshrc 中添加:

alias claude-vibe='claude -p "请立即阅读 ~/Documents/AI_Common/index.md 并初始化 Vibe Coding 上下文。"'

现在,我只需要输入 claude-vibe,它启动后第一件事就是去读取我的 index.md 路由。

效果:GLM-4 内核瞬间觉醒,它立刻知道我不喜欢 any,知道我遇到特定报错该如何处理,甚至能从我的私有复盘日志里找答案。


🌈 总结:跨模型的“记忆大一统”

通过这套架构,我实现了真正的模型自由

  • Gemini CLI:原生接入 AI_Common
  • Codex CLI:通过 /start 技能自动加载。
  • Claude Code:用着 GLM-4 内核,跑着 claude-vibe 模式。

截屏2026-01-16 23.50.29

截屏2026-01-16 23.52.17

流水的模型,铁打的记忆。 我不必再为每个工具重复声明我的技术偏好,所有的 Agent 都在共享同一套智慧大脑。这就是 AI 编程的下半场:上下文工程(Context Engineering)比模型本身更重要。

🔗 我的大脑地址webkubor/AI_Common (欢迎 Star,一起构建你的第二大脑)


#AI编程 #ClaudeCode #GLM4 #RAG #程序员效率