大家平时用 ChatGPT、Claude 或者 Cursor 写代码的时候,肯定都有过这种体验:遇到个不好解决的 bug,或者想加个新功能,嫌麻烦直接把两三个相关的文件,几百上千行代码“啪”的一下全复制贴进去。
结果呢?要是用 API 跑的,那个 Token 消耗速度看着都心疼(毕竟都是钱);要是用网页版,经常容易顶到上下文长度限制。而且最坑的是,丢给 AI 的代码一旦太长,它就容易开始“幻觉”或者抓错重点,最后给出的回答完全驴唇不对马嘴。
其实仔细想想,我们贴进去的代码里,有大量的空行、废话一样的注释、还有一堆长长的 import 声明。这些东西对 AI 理解核心业务逻辑帮助微乎其微,反而白白占用了大量的 Token。
为了解决自己这个痛点,我前段时间抽空撸了一个小工具:Context Optimizer。
它的核心功能非常简单粗暴:就是帮你在把代码喂给大模型之前,先做一次“极致瘦身”。
具体能干啥:
- 自动清理代码里没营养的注释和多余的空行。
- 智能压缩代码体积,剔除干扰信息。
- 直观展示压缩前后的对比和 Token 估算。我平时写的前端和后端业务代码,亲测经常能直接压掉 30% 到 50% 的体积。
用起来也挺顺手,直接把原代码贴进左边,右边立马出优化好的版本,一键复制就能丢给大模型了。
工具已经上线了,大家可以复制下面这个地址去浏览器里体验:
ittoolshq.com/context-optimizer
另外强调一下,这个工具是完全在浏览器本地运行的,纯前端处理,不用担心你们的公司代码被上传或者泄露。
各位平时经常和 AI 结对编程的兄弟们可以试试看。如果遇到什么 bug,或者觉得哪里还可以优化的,欢迎直接在评论区留言(骂轻点就行 😂)。