GitHub Copilot 限流了,国产模型能顶上吗?

0 阅读6分钟

一、GitHub 紧急刹车

2026 年 4 月 20 日,GitHub 发布公告,宣布暂停 Copilot Pro、Pro+ 和 Student 计划的新注册,同时收紧使用限制。

这不是简单的"容量调整",而是一次紧急刹车

具体变化

  • 暂停新注册:Pro、Pro+、Student 计划不再接受新用户
  • 收紧使用限制:引入会话限制和每周 token 使用量限制
  • 模型降级:Opus 模型不再提供给 Pro 用户,Opus 4.7 仅限 Pro+ 使用
  • 额度透明化:VS Code 和 Copilot CLI 直接显示剩余可用额度

GitHub 产品副总裁 Joe Binder 在公告中坦言:

"长时间运行、并行执行的工作流确实能带来巨大价值,但也对我们的基础设施和定价结构提出了挑战。"

用户遭遇

InfoQ 报道中,不少用户遭遇了"离谱地长"的限流:

  • 业余开发者 John Clary 触发长达 44 小时的每周限流
  • 被迫切换到 Auto 模式,模型质量明显下降
  • 有人感叹:"一次高级请求可能耗掉一整周的 Opus 4.6 配额"

更扎心的是,有开发者直接吐槽:"Copilot 的时代结束了。我试了下用 Sonnet 按 API 计费,2 分钟就花了 49 美元。"


二、为什么突然收紧?

核心原因:Agent 把原有定价模型顶穿了

订阅模式的崩溃

GitHub 在 2021 年推出 Copilot 时,它还只是编辑器里的代码补全工具。如今,它早已变成 agent 化的编程助手

  • Copilot CLI 让开发者把调试、重构甚至完整功能开发直接交给 AI 执行
  • 新一代模型支持更大的上下文窗口(Opus 4.6/4.7 支持高达 100 万 token)
  • 并行工作流(如 /fleet)让 token 消耗呈指数级增长

成本结构错配

InfoQ 指出,问题的根源在于:

GitHub 的定价架构,是基于一个旧模型成本结构设计的。过去,"一次高级请求"大致意味着相近的基础设施成本;但在前沿模型时代,这一假设已经不成立。

GitHub 一方面以订阅形式出售前沿模型能力,另一方面要承担这些模型对应的真实基础设施成本——这两者已经不再对等了

行业共识

这不是 GitHub 独有的问题:

  • Anthropic:3 月收紧 Claude 的会话限制,限制第三方工具(如 OpenClaw)的使用
  • OpenAI:对 Codex 引入新的使用上限
  • Google:2026 年 1 月为 Antigravity 服务引入每周使用上限

共识正在形成:当 AI 编程从"辅助工具"变成"长时间运行的智能体系统",原有的订阅模式与算力供给,正在被彻底拉到极限。


三、国产模型能顶上吗?

答案是:能,而且已经在顶了

以下数据采集自各家官网,数据来源标注于各模型介绍后。

智谱 GLM vs Claude

智谱官方声明:GLM-5 在 SWE-bench Verified、Terminal Bench 2.0 等智能体编程核心榜单上达到开源模型 SOTA,比肩 Claude Opus 4.5。智谱官网首页更直接标注:"编程能力并列全球第一"。

关键优势

  • 智能体编程榜单开源 SOTA
  • 200K 上下文窗口(Claude Opus 为 100K)
  • 中文理解能力更强

数据来源:智谱官网 GLM-5智谱官网首页

MiniMax M2.5/M2.7 vs Claude

MiniMax 官方声明:M2.7 相比 M2.5 在实战能力上有显著提升,具备"强工程与 Coding 能力",是"一个真正理解生产系统的模型"

关键优势

  • 强工程与 Coding 能力
  • Agent Harness 能力:构建自我进化的 Agent
  • 复杂 Office 自动化能力:支持复杂 Excel / Word / PPT 办公任务
  • 200K 上下文窗口

数据来源:MiniMax 官网 M2.7MiniMax 官网首页

Kimi K2.5/K2.6 vs Claude

月之暗面官方声明:Kimi K2.6 具备"原生多模态理解、超强的代码能力和 Agent 性能"

关键优势

  • 原生多模态理解
  • 超强的代码能力
  • Agent 性能优异
  • 256K 超长上下文窗口(Claude Opus 为 100K)

数据来源:月之暗面官网Kimi 官网

Qwen3.5 Plus vs Claude

阿里云官方声明:Qwen3.5 Plus 在推理能力上达到顶尖水平。根据 Qwen 官方博客,Qwen 系列模型在多项基准测试中表现优异。

关键优势

  • 80K 思维链长度(Claude Opus 为 32K)
  • 100 万 token 超长上下文窗口(Claude Opus 为 100K)
  • 推理能力顶尖

数据来源:Qwen 官方博客阿里云官网


四、飞码扣:国产模型的 Copilot 入口

GitHub 限流了,但我们不让你失望。

我们做了什么

飞码扣是 GitHub Copilot Chat 的"本土化插件",接入国内主流大模型:

  • 通义千问系列:Qwen Flash、Qwen3 Max、Qwen3.5 Plus
  • DeepSeek:V3.2 深度思考模型
  • 智谱 GLM:GLM-4.7、GLM-5
  • MiniMax:M2.5 高效推理模型
  • 月之暗面:Kimi K2.5 超长上下文模型

核心优势

特性说明
🚀 无需梯子国内服务器(阿里云)直连,延迟低、稳定性高
🤖 多模型支持8 个国产大模型,覆盖从极速响应到深度推理
🖼️ 视觉支持支持截图上传,直接分析报错、设计稿
🔐 安全登录OAuth2 一键登录,GitHub 账号即可
💰 灵活计费按需付费,无订阅压力,每周还送免费额度
🌐 中文优化完整中文界面,模型对中文理解更到位

与 Copilot 对比

维度GitHub Copilot飞码扣
网络需要梯子,不稳定国内直连,稳定
模型Opus 4.7(仅 Pro+)Qwen3.5 Plus、GLM-5、MiniMax M2.5 等
上下文100K(Opus)100 万(Qwen3.5 Plus)、256K(Kimi K2.5)
中文一般优秀
计费订阅制,限流严重按需付费,每周送免费额度
视觉部分Qwen3.5 Plus、Kimi K2.5 支持

五、公测开启,免费额度等你拿

GitHub 限流了,我们不限流。

公测福利

  • ✅ 每周 50 积分免费赠送(无需任何操作,自动到账)
  • ✅ 邀请好友双方得奖励
  • ✅ 定期活动送额外额度

用 Qwen Flash 的话,每周的免费额度足够你进行数百次对话

如何体验?

第一步:安装扩展

打开 VS Code,按 Ctrl+Shift+X,搜索 "飞码扣" 或 "Feima",点击安装。

第二步:登录账号

按 Ctrl+Shift+P,输入 "飞码: 登录",使用 GitHub 账号一键登录。

登录界面

第三步:选择模型

在 Copilot Chat 的模型选择器中,选择以 [Feima] 开头的模型即可开始对话。

模型选择


六、写在最后

GitHub 限流,不是 Copilot 的错,是时代变了。

当 AI 编程从"辅助工具"变成"智能体系统",原有的订阅模式注定要崩溃。微软已经计划在 2026 年晚些时候转向基于 token/API 的计费模式——这只是一个开始。

但好消息是,国产大模型已经起来了。

GLM-5、MiniMax M2.5、Kimi K2.5、Qwen3.5 Plus……这些模型在代码能力上已经不输 Claude,在中文理解和上下文窗口上甚至更胜一筹。

飞码扣的使命很简单:加速创意落地。

GitHub 限流了,我们不限流。国产模型已经顶上来了,你还在等什么?

让 AI 编程助手,更懂中国开发者。


本文作者:飞码扣老码农,20年码龄。

官网feimacode.cn
文档docs.feimacode.cn
定价feimacode.cn/pricing
GitHubgithub.com/feimacode/f…


参考资料

GitHub 公告原文
Changes to GitHub Copilot Individual plans
GitHub 官方博客,2026 年 4 月 20 日

InfoQ 报道
Copilot 不让注册了:从"随便用"到"全面限",agent 把原有订价模型顶穿了
InfoQ,2026 年 4 月 24 日