开源AI 编程工具CoderChat:模型自由、数据本地、还不花钱

0 阅读4分钟

 先别急着说“又是个套壳工具”,听我聊完。

我从 Cursor 刚火的时候就开始用,后面也试过其他一些AI编程工具。说实话,每个都有让人眼前一亮的地方,但用久了总有一些说不出的别扭

比如——

  • 想换一个最新的开源模型?不行,只能用他们内置的那几个。
  • 每个月账单飘忽不定,用得小心翼翼。
  • 公司项目要求代码不能过第三方服务器,根本没法用。

直到我在 GitHub 上翻到一个叫 CoderChat 的项目,看完介绍直接上手试了。
用后结论是:真香。

chat

编辑

它到底解决了什么问题?

官方介绍说,CoderChat 是 Void 的升级版,Void 本来就是一套很干净的 AI 编码 Agent 框架只是目前已经暂停更新了。
CoderChat 保留了 Void 的全部能力,然后重点做了三件事:

彻底开放模型配置
不管是 OpenAI 风格的 API、 Anthropic 的,还是 Gemini 格式,甚至是本地跑起来的 Ollama 模型,都能直接接进去。

  1. 数据不留痕
    CoderChat 会把你的消息直接发给模型提供商,不经过任何中间服务器。
    这对于我接的一些企业外包项目来说,是刚需。合规问题一下子就解决了。
  2. 定价透明(甚至可以为零)
    因为没有厂商锁定,我可以用自己的 API Key,或者直接用本地模型。
    我现在一个月花在 AI 编程上的钱,比以前少了不少。

配置真的不麻烦

说实话,一开始我也担心“自由配置模型”会特别折腾。
但实际做下来,只需要在配置文件里改几个关键字段:

{"contextWindow":128000,"reservedOutputTokenSpace":4096,"supportsSystemMessage":"system-role","specialToolFormat":"openai-style","supportsVision":false}

项目文档里给了 GLM‑5 和 Kimi‑K2.5 的完整示例,照着填就行。
specialToolFormat 支持 openai-styleanthropic-stylegemini-style,大部分主流模型都能兼容。

如果要接视觉模型,把 supportsVision 改成 true 就行,比如 Kimi‑K2.5 就是这样配的。

那些让我觉得“值了”的功能

除了模型自由,CoderChat 最近还更新了一波实用功能(更新日志里写的是 2026/04/14 以来的改进,我挑几个最顺手的说):

  • 提问工具:AI Agent 遇到不确定的地方会主动反问我,不再瞎猜。
  • 特殊符号处理工具:处理带特殊符号的代码块时,不会再莫名其妙报错了。
  • 支持在工具通知里发图片:一些 UI 问题截图直接发给 Agent,它看得懂。
  • 重试逻辑优化:不用删掉重发,点一下就能改,重试逻辑也优化了。
  • Deep Think 区域的 UI 更舒服了:模型做长推理时,思考过程和最终结果分得更清楚。

另外,国际化(i18n) 也完整了,工具名称可以显示中文,对英文不太熟的同事友好很多。

一个让我意外的细节

项目 README 里写了一句话,我一开始没太在意,后来发现是真的:

超过 95% 的代码由 CoderChat + GLM‑5  开发完成。

也就是说,这个项目本身就是用自己开发的工具写出来的。
用狗粮测试的标准来看,这算是最高级别的自信了。

作者还专门提醒:没有强 Agent 能力的模型,很难稳定产出生产级代码
我自己试过用一些普通聊天模型接进去,果然不太行。所以建议还是用主流平台推荐的那些 coding 模型。

适合谁用?

  • 想尝鲜最新模型的开发者和团队
  • 对数据合规有要求的企业项目(金融、医疗、私有化部署)
  • 受够了每月不确定账单的人
  • 想完全本地运行 AI 编程助手的极客

不太适合:

  • 完全不想碰配置文件,只想开箱即用的新手(Cursor 那种更合适)
  • 需要官方人工服务的企业(开源项目主要靠社区)

最后说点实在的

我现在的工作流是:
CoderChat 主力写代码 + 本地小模型做快速补全 + 云端大模型解决复杂重构。
所有 API 用自己的 Key,数据全部本地留存,用着特别踏实。

如果你也在被 Void编辑器停更和其他一些工具的定价迷雾困扰,不妨去 GitHub 上搜一下 CoderChat,花半小时配置好,然后试试。

反正免费、开源、数据你自己掌控,试一下又不亏。

项目地址:github.com/coderchatwa…


欢迎转发给你身边被 AI 编程工具折磨的朋友,也许这正是他需要的。