一、GitHub 紧急刹车
2026 年 4 月 20 日,GitHub 发布公告,宣布暂停 Copilot Pro、Pro+ 和 Student 计划的新注册,同时收紧使用限制。
这不是简单的"容量调整",而是一次紧急刹车。
具体变化
- 暂停新注册:Pro、Pro+、Student 计划不再接受新用户
- 收紧使用限制:引入会话限制和每周 token 使用量限制
- 模型降级:Opus 模型不再提供给 Pro 用户,Opus 4.7 仅限 Pro+ 使用
- 额度透明化:VS Code 和 Copilot CLI 直接显示剩余可用额度
GitHub 产品副总裁 Joe Binder 在公告中坦言:
"长时间运行、并行执行的工作流确实能带来巨大价值,但也对我们的基础设施和定价结构提出了挑战。"
用户遭遇
InfoQ 报道中,不少用户遭遇了"离谱地长"的限流:
- 业余开发者 John Clary 触发长达 44 小时的每周限流
- 被迫切换到 Auto 模式,模型质量明显下降
- 有人感叹:"一次高级请求可能耗掉一整周的 Opus 4.6 配额"
更扎心的是,有开发者直接吐槽:"Copilot 的时代结束了。我试了下用 Sonnet 按 API 计费,2 分钟就花了 49 美元。"
二、为什么突然收紧?
核心原因:Agent 把原有定价模型顶穿了。
订阅模式的崩溃
GitHub 在 2021 年推出 Copilot 时,它还只是编辑器里的代码补全工具。如今,它早已变成 agent 化的编程助手:
- Copilot CLI 让开发者把调试、重构甚至完整功能开发直接交给 AI 执行
- 新一代模型支持更大的上下文窗口(Opus 4.6/4.7 支持高达 100 万 token)
- 并行工作流(如
/fleet)让 token 消耗呈指数级增长
成本结构错配
InfoQ 指出,问题的根源在于:
GitHub 的定价架构,是基于一个旧模型成本结构设计的。过去,"一次高级请求"大致意味着相近的基础设施成本;但在前沿模型时代,这一假设已经不成立。
GitHub 一方面以订阅形式出售前沿模型能力,另一方面要承担这些模型对应的真实基础设施成本——这两者已经不再对等了。
行业共识
这不是 GitHub 独有的问题:
- Anthropic:3 月收紧 Claude 的会话限制,限制第三方工具(如 OpenClaw)的使用
- OpenAI:对 Codex 引入新的使用上限
- Google:2026 年 1 月为 Antigravity 服务引入每周使用上限
共识正在形成:当 AI 编程从"辅助工具"变成"长时间运行的智能体系统",原有的订阅模式与算力供给,正在被彻底拉到极限。
三、国产模型能顶上吗?
答案是:能,而且已经在顶了。
以下数据采集自各家官网,数据来源标注于各模型介绍后。
智谱 GLM vs Claude
智谱官方声明:GLM-5 在 SWE-bench Verified、Terminal Bench 2.0 等智能体编程核心榜单上达到开源模型 SOTA,比肩 Claude Opus 4.5。智谱官网首页更直接标注:"编程能力并列全球第一"。
关键优势:
- 智能体编程榜单开源 SOTA
- 200K 上下文窗口(Claude Opus 为 100K)
- 中文理解能力更强
数据来源:智谱官网 GLM-5、智谱官网首页
MiniMax M2.5/M2.7 vs Claude
MiniMax 官方声明:M2.7 相比 M2.5 在实战能力上有显著提升,具备"强工程与 Coding 能力",是"一个真正理解生产系统的模型" 。
关键优势:
- 强工程与 Coding 能力
- Agent Harness 能力:构建自我进化的 Agent
- 复杂 Office 自动化能力:支持复杂 Excel / Word / PPT 办公任务
- 200K 上下文窗口
数据来源:MiniMax 官网 M2.7、MiniMax 官网首页
Kimi K2.5/K2.6 vs Claude
月之暗面官方声明:Kimi K2.6 具备"原生多模态理解、超强的代码能力和 Agent 性能" 。
关键优势:
- 原生多模态理解
- 超强的代码能力
- Agent 性能优异
- 256K 超长上下文窗口(Claude Opus 为 100K)
Qwen3.5 Plus vs Claude
阿里云官方声明:Qwen3.5 Plus 在推理能力上达到顶尖水平。根据 Qwen 官方博客,Qwen 系列模型在多项基准测试中表现优异。
关键优势:
- 80K 思维链长度(Claude Opus 为 32K)
- 100 万 token 超长上下文窗口(Claude Opus 为 100K)
- 推理能力顶尖
四、飞码扣:国产模型的 Copilot 入口
GitHub 限流了,但我们不让你失望。
我们做了什么
飞码扣是 GitHub Copilot Chat 的"本土化插件",接入国内主流大模型:
- 通义千问系列:Qwen Flash、Qwen3 Max、Qwen3.5 Plus
- DeepSeek:V3.2 深度思考模型
- 智谱 GLM:GLM-4.7、GLM-5
- MiniMax:M2.5 高效推理模型
- 月之暗面:Kimi K2.5 超长上下文模型
核心优势
| 特性 | 说明 |
|---|---|
| 🚀 无需梯子 | 国内服务器(阿里云)直连,延迟低、稳定性高 |
| 🤖 多模型支持 | 8 个国产大模型,覆盖从极速响应到深度推理 |
| 🖼️ 视觉支持 | 支持截图上传,直接分析报错、设计稿 |
| 🔐 安全登录 | OAuth2 一键登录,GitHub 账号即可 |
| 💰 灵活计费 | 按需付费,无订阅压力,每周还送免费额度 |
| 🌐 中文优化 | 完整中文界面,模型对中文理解更到位 |
与 Copilot 对比
| 维度 | GitHub Copilot | 飞码扣 |
|---|---|---|
| 网络 | 需要梯子,不稳定 | 国内直连,稳定 |
| 模型 | Opus 4.7(仅 Pro+) | Qwen3.5 Plus、GLM-5、MiniMax M2.5 等 |
| 上下文 | 100K(Opus) | 100 万(Qwen3.5 Plus)、256K(Kimi K2.5) |
| 中文 | 一般 | 优秀 |
| 计费 | 订阅制,限流严重 | 按需付费,每周送免费额度 |
| 视觉 | 部分 | Qwen3.5 Plus、Kimi K2.5 支持 |
五、公测开启,免费额度等你拿
GitHub 限流了,我们不限流。
公测福利
- ✅ 每周 50 积分免费赠送(无需任何操作,自动到账)
- ✅ 邀请好友双方得奖励
- ✅ 定期活动送额外额度
用 Qwen Flash 的话,每周的免费额度足够你进行数百次对话。
如何体验?
第一步:安装扩展
打开 VS Code,按 Ctrl+Shift+X,搜索 "飞码扣" 或 "Feima",点击安装。
第二步:登录账号
按 Ctrl+Shift+P,输入 "飞码: 登录",使用 GitHub 账号一键登录。
第三步:选择模型
在 Copilot Chat 的模型选择器中,选择以 [Feima] 开头的模型即可开始对话。
六、写在最后
GitHub 限流,不是 Copilot 的错,是时代变了。
当 AI 编程从"辅助工具"变成"智能体系统",原有的订阅模式注定要崩溃。微软已经计划在 2026 年晚些时候转向基于 token/API 的计费模式——这只是一个开始。
但好消息是,国产大模型已经起来了。
GLM-5、MiniMax M2.5、Kimi K2.5、Qwen3.5 Plus……这些模型在代码能力上已经不输 Claude,在中文理解和上下文窗口上甚至更胜一筹。
飞码扣的使命很简单:加速创意落地。
GitHub 限流了,我们不限流。国产模型已经顶上来了,你还在等什么?
让 AI 编程助手,更懂中国开发者。
本文作者:飞码扣老码农,20年码龄。
官网:feimacode.cn
文档:docs.feimacode.cn
定价:feimacode.cn/pricing
GitHub:github.com/feimacode/f…
参考资料
GitHub 公告原文:
Changes to GitHub Copilot Individual plans
GitHub 官方博客,2026 年 4 月 20 日
InfoQ 报道:
Copilot 不让注册了:从"随便用"到"全面限",agent 把原有订价模型顶穿了
InfoQ,2026 年 4 月 24 日