用 Claude Code 写代码一段时间了,最让人抓狂的一件事,是它面对稍微大一点的代码库就开始犯傻。
几万行起步的项目,它先 grep 一遍,再 read 一遍,再 grep 再 read,来回好几轮才把相关文件找齐。一次对话轻轻松松烧掉几万 token,还经常找不到关键位置。
最近发现一个专门治这个病的 MCP 插件,叫 Claude Context,Zilliz 官方出品。上线没多久已经 6.8K Star,而且近一周一直挂在 Trending 榜上。
它干的事儿说出来很简单:把你整个代码库塞进向量数据库,每次让 AI 搜代码的时候,直接走语义检索,相关片段一次捞齐,不用再一轮一轮发现。
01
到底是个啥
Claude Context 是一个 MCP Server,跑在你本地,挂在 Claude Code、Cursor、Gemini CLI、Windsurf 这些 AI 编辑器下面,给它们装一个代码语义搜索的外挂。
传统做法下,AI Agent 面对大仓库只有两条路:要么把整个目录结构喂进去(贵到离谱),要么用 grep 关键词匹配(找不准还慢)。
Claude Context 走的是第三条路。你先花几分钟把代码库索引一次,之后每次 AI 需要上下文,它就用自然语言去向量库里搜,比如找所有处理用户鉴权的函数,一次就能把相关片段全部捞回来。官方给出的评测数据是,在同等检索质量下,token 消耗降低大约 40%。
说白了就是给 AI 配了个懂代码语义的图书管理员,不用它自己翻目录了。
02
能打的几个点
**代码切分用的是 AST 不是字符数。**大部分 RAG 工具切代码就是按字符或者行数硬切,函数切一半、class 分两半是常事。Claude Context 走的是 Tree-sitter 做抽象语法树解析,以函数、class 为单位切,出来的每一个 chunk 都是完整的代码单元。搜出来的东西粒度对,AI 才读得懂。
**增量索引用了 Merkle 树。**第一次索引完之后,你改几个文件再重建,它不会傻乎乎把整个仓库重跑一遍,而是用 Merkle 树算哈希对比,只把动过的文件重新向量化。日常开发中这点很关键,不然每次 git pull 完要等十分钟才能用,谁受得了。
**检索是 BM25 加稠密向量混合。**单纯的语义搜索容易漏掉精确关键词(比如变量名、API 名),BM25 恰好补这个缺口。两个加权一起上,既能语义模糊匹配,也不会把精确查询搞丢。
**几乎所有主流 AI 编辑器都吃得下。**Claude Code、Cursor、Gemini CLI、Windsurf、Cline、Roo Code、Claude Desktop、VS Code、Codex CLI、Qwen Code、Cherry Studio,甚至 JetBrains 系的 Zencoder 都支持。一次配好,一套 MCP 工具全平台通吃。
Embedding 层也没锁死,OpenAI、VoyageAI、Gemini、Ollama 四家随便选,想全本地跑就 Ollama,想要更高精度就 VoyageAI 的 code embedding。向量库支持自建 Milvus 或者 Zilliz Cloud 全托管,Zilliz 免费层够小仓库用了。
03
怎么装上用
需要先装一下 Node.js,版本得是 20 以上、24 以下(Node 24 还不兼容,踩过坑的注意)。然后去 Zilliz Cloud 注册一个免费账号拿 API Key,再准备一个 OpenAI Key 用来做 embedding。
如果你用的是 Claude Code,一行命令搞定:
claude mcp add claude-context \
-e OPENAI_API_KEY=sk-your-openai-api-key \
-e MILVUS_ADDRESS=your-zilliz-cloud-public-endpoint \
-e MILVUS_TOKEN=your-zilliz-cloud-api-key \
-- npx @zilliz/claude-context-mcp@latest
用 Cursor、Windsurf 这类基于 mcp.json 配置的编辑器,就往配置文件里加一段:
{
"mcpServers": {
"claude-context": {
"command": "npx",
"args": ["-y", "@zilliz/claude-context-mcp@latest"],
"env": {
"OPENAI_API_KEY": "your-openai-api-key",
"MILVUS_ADDRESS": "your-zilliz-cloud-public-endpoint",
"MILVUS_TOKEN": "your-zilliz-cloud-api-key"
}
}
}
}
装完之后直接跟 AI 对话就行,不用再手动跑任何命令:
先让它建索引,说一句 Index this codebase,它就开始跑了。大一点的仓库可能要几分钟,可以接着让它 Check the indexing status 看进度。
索引建好以后就正常提问,比如 Find functions that handle user authentication 或者 Where is the rate limiting logic implemented,它会先用 search_code 工具从向量库里捞出相关片段,再基于这些片段回答你。
整个过程里你唯一要做的,就是第一次索引那几分钟。之后修改代码它自己增量更新,你基本感知不到。
04
项目信息
开源地址:https://github.com/zilliztech/claude-context
Star 数:6.8K+(持续上升中)
License:MIT
主要语言:TypeScript 69.2% / Python 15.4%
作者/维护方:Zilliz(Milvus 背后的公司)
Release:已发布 23 个版本,迭代活跃
顺便说一句,Zilliz 是做向量数据库的,本来就是这个领域的头部玩家,拿自己的 Milvus 做底,再搭一层 MCP 封装,属于是在自己最擅长的方向上做工具,可以说比随便一个业余开发者单枪匹马搞 RAG 靠谱得多。
我自己试着用它索引了一个几万行的老项目,跑完大概三分钟,之后 Claude Code 回答"这个类被谁调用过"这类问题明显快了一档,token 消耗也肉眼可见降了下来。对经常在大仓库里写代码的人来说,这个投入产出比相当可以。
如果你用 Claude Code 或者 Cursor,经常面对几万行以上的代码库,强烈建议花十分钟把它接上。一次配置,全平台通用,收益是一直在的。
04
点击下方卡片,关注我
每天一个值得收藏的 GitHub 开源项目,下期见。