Claude Code用这个超强 MCP 工具,token 直降 40%

0 阅读5分钟

用 Claude Code 写代码一段时间了,最让人抓狂的一件事,是它面对稍微大一点的代码库就开始犯傻。

几万行起步的项目,它先 grep 一遍,再 read 一遍,再 grep 再 read,来回好几轮才把相关文件找齐。一次对话轻轻松松烧掉几万 token,还经常找不到关键位置。

最近发现一个专门治这个病的 MCP 插件,叫 Claude Context,Zilliz 官方出品。上线没多久已经 6.8K Star,而且近一周一直挂在 Trending 榜上。

它干的事儿说出来很简单:把你整个代码库塞进向量数据库,每次让 AI 搜代码的时候,直接走语义检索,相关片段一次捞齐,不用再一轮一轮发现。

图片

01

到底是个啥

Claude Context 是一个 MCP Server,跑在你本地,挂在 Claude Code、Cursor、Gemini CLI、Windsurf 这些 AI 编辑器下面,给它们装一个代码语义搜索的外挂。

传统做法下,AI Agent 面对大仓库只有两条路:要么把整个目录结构喂进去(贵到离谱),要么用 grep 关键词匹配(找不准还慢)。

Claude Context 走的是第三条路。你先花几分钟把代码库索引一次,之后每次 AI 需要上下文,它就用自然语言去向量库里搜,比如找所有处理用户鉴权的函数,一次就能把相关片段全部捞回来。官方给出的评测数据是,在同等检索质量下,token 消耗降低大约 40%

说白了就是给 AI 配了个懂代码语义的图书管理员,不用它自己翻目录了。img

02

能打的几个点

**代码切分用的是 AST 不是字符数。**大部分 RAG 工具切代码就是按字符或者行数硬切,函数切一半、class 分两半是常事。Claude Context 走的是 Tree-sitter 做抽象语法树解析,以函数、class 为单位切,出来的每一个 chunk 都是完整的代码单元。搜出来的东西粒度对,AI 才读得懂。

**增量索引用了 Merkle 树。**第一次索引完之后,你改几个文件再重建,它不会傻乎乎把整个仓库重跑一遍,而是用 Merkle 树算哈希对比,只把动过的文件重新向量化。日常开发中这点很关键,不然每次 git pull 完要等十分钟才能用,谁受得了。

**检索是 BM25 加稠密向量混合。**单纯的语义搜索容易漏掉精确关键词(比如变量名、API 名),BM25 恰好补这个缺口。两个加权一起上,既能语义模糊匹配,也不会把精确查询搞丢。

**几乎所有主流 AI 编辑器都吃得下。**Claude Code、Cursor、Gemini CLI、Windsurf、Cline、Roo Code、Claude Desktop、VS Code、Codex CLI、Qwen Code、Cherry Studio,甚至 JetBrains 系的 Zencoder 都支持。一次配好,一套 MCP 工具全平台通吃。

Embedding 层也没锁死,OpenAI、VoyageAI、Gemini、Ollama 四家随便选,想全本地跑就 Ollama,想要更高精度就 VoyageAI 的 code embedding。向量库支持自建 Milvus 或者 Zilliz Cloud 全托管,Zilliz 免费层够小仓库用了。

MCP Efficiency Analysis

03

怎么装上用

需要先装一下 Node.js,版本得是 20 以上、24 以下(Node 24 还不兼容,踩过坑的注意)。然后去 Zilliz Cloud 注册一个免费账号拿 API Key,再准备一个 OpenAI Key 用来做 embedding。

如果你用的是 Claude Code,一行命令搞定:

claude mcp add claude-context \
  -e OPENAI_API_KEY=sk-your-openai-api-key \
  -e MILVUS_ADDRESS=your-zilliz-cloud-public-endpoint \
  -e MILVUS_TOKEN=your-zilliz-cloud-api-key \
  -- npx @zilliz/claude-context-mcp@latest

用 Cursor、Windsurf 这类基于 mcp.json 配置的编辑器,就往配置文件里加一段:

{
  "mcpServers": {
    "claude-context": {
      "command": "npx",
      "args": ["-y", "@zilliz/claude-context-mcp@latest"],
      "env": {
        "OPENAI_API_KEY": "your-openai-api-key",
        "MILVUS_ADDRESS": "your-zilliz-cloud-public-endpoint",
        "MILVUS_TOKEN": "your-zilliz-cloud-api-key"
      }
    }
  }
}

装完之后直接跟 AI 对话就行,不用再手动跑任何命令:

先让它建索引,说一句 Index this codebase,它就开始跑了。大一点的仓库可能要几分钟,可以接着让它 Check the indexing status 看进度。

索引建好以后就正常提问,比如 Find functions that handle user authentication 或者 Where is the rate limiting logic implemented,它会先用 search_code 工具从向量库里捞出相关片段,再基于这些片段回答你。

整个过程里你唯一要做的,就是第一次索引那几分钟。之后修改代码它自己增量更新,你基本感知不到。

04

项目信息

开源地址:https://github.com/zilliztech/claude-context

Star 数:6.8K+(持续上升中)
License:MIT
主要语言:TypeScript 69.2% / Python 15.4%
作者/维护方:Zilliz(Milvus 背后的公司)
Release:已发布 23 个版本,迭代活跃

顺便说一句,Zilliz 是做向量数据库的,本来就是这个领域的头部玩家,拿自己的 Milvus 做底,再搭一层 MCP 封装,属于是在自己最擅长的方向上做工具,可以说比随便一个业余开发者单枪匹马搞 RAG 靠谱得多。

我自己试着用它索引了一个几万行的老项目,跑完大概三分钟,之后 Claude Code 回答"这个类被谁调用过"这类问题明显快了一档,token 消耗也肉眼可见降了下来。对经常在大仓库里写代码的人来说,这个投入产出比相当可以。

如果你用 Claude Code 或者 Cursor,经常面对几万行以上的代码库,强烈建议花十分钟把它接上。一次配置,全平台通用,收益是一直在的。

04

点击下方卡片,关注我

每天一个值得收藏的 GitHub 开源项目,下期见。