写了20多年代码,我为什么决定给 GitHub Copilot 做个"本土插件"?

0 阅读3分钟

兄弟们好,我是飞码扣的"老码农"。我们撸了个中文 Copilot,现在火热公测中,欢迎拍砖。


为什么躬身入局?

在国内用过Copilot或其它工具如Claude Code, Gemini CLI, Codex等都能体会一些痛点,如:

  • 网络不稳定:梯子时好时坏,公司网络根本跑不起来
  • 封号风险:Claude Code、Copilot 账号莫名其妙被封,申诉无门
  • 中文支持差:底层模型是 GPT-4/Claude,中文理解弱,还让你用英文提问
  • 支付门槛高:要美元信用卡,报销流程复杂,很多新人直接被卡住

有痛点,我们就撸起袖子自己搞一个。

飞码扣是什么?

简单来说,飞码扣是 GitHub Copilot Chat 的"本土化插件"

它不改变你使用 VS Code 的习惯,不替换你的 Copilot 扩展,而是作为 Copilot Chat 的一个模型提供商接入。

核心特性一览

特性说明
🚀 无需梯子国内服务器(阿里云)直连,延迟低、稳定性高
🤖 多模型支持通义千问、DeepSeek、智谱 GLM、MiniMax、月之暗面等
🖼️ 视觉支持支持截图上传,直接分析报错、设计稿
🔐 安全登录OAuth2 一键登录,GitHub 账号即可
💰 灵活计费按需付费,无订阅压力,每周还送免费额度
🌐 中文优化完整中文界面,模型对中文理解更到位

支持的模型

我们对接了国内主流的大模型,覆盖从"极速响应"到"深度推理"的各种场景:

模型特点适用场景
Qwen Flash最便宜,极速响应快速补全、简单问答
Qwen3 Max标准价格,支持思维链日常开发、代码审查
Qwen3.5 Plus最强推理,80K 思维链复杂算法、架构设计
DeepSeek V3.2深度思考,代码能力强算法优化、技术调研
GLM-4.7高性能,200K 上下文日常开发、代码审查
GLM-5智谱最新,思维链推理复杂算法、架构设计
MiniMax M2.5高效推理,200K 上下文日常开发、代码审查
Kimi K2.5256K 超长上下文大文件分析、代码库理解

所有模型都支持工具调用(Tool Calls) ,可以执行代码、操作文件、调用 API——和原生 Copilot 完全一致的体验。


我们做了什么?

  • 打通 Copilot Chat 协议:完整对接,保持原生体验
  • 接入国产大模型:通义千问、DeepSeek、智谱 GLM、MiniMax、月之暗面
  • 构建后端服务:OAuth2 身份认证、按次计费、额度管理、数据隐私保护
  • 支持视觉功能:截图上传、报错分析、设计稿生成

总结:兼容 Copilot 协议,保持其完整体验;提供一键登录,减少 API Key 管理风险和烦恼;接入主流大模型,提供灵活性。


公测开启,邀请你一起来

经过几个月的内测打磨,飞码扣今天正式开启公测

如何体验?

第一步:安装扩展

打开 VS Code,按 Ctrl+Shift+X,搜索 "飞码扣" 或 "Feima",点击安装。

第二步:登录账号

按 Ctrl+Shift+P,输入 "飞码: 登录",使用 GitHub 账号一键登录。

登录界面

第三步:选择模型

在 Copilot Chat 的模型选择器中,选择以 [Feima] 开头的模型即可开始对话。

模型选择

公测福利

  • ✅ 每周 50 积分免费赠送(无需任何操作,自动到账)
  • ✅ 邀请好友双方得奖励
  • ✅ 定期活动送额外额度

用 Qwen Flash 的话,每周的免费额度足够你进行数百次对话


写在最后

飞码扣的使命很简单:加速创意落地

产品还在公测,肯定有不足。多测多用,拍砖请往 GitHub 提 issue。

让 AI 编程助手,更懂中国开发者。

GitHub:github.com/feimacode/feima-copilot-llms-extension