订阅制 → Token 计费是大趋势,算力如水电一般来计费是合理的吗?

3 阅读4分钟

订阅制 → Token 计费是大趋势,算力如水电一般来计费是合理的吗?

GitHub Copilot 将于 2026 年 6 月 4 日正式切换 Token 计费。这不是一家公司的决策,而是整个 AI 行业计费逻辑的系统性转变。

一个信号:GitHub Copilot 的计费革命

2025 年 4 月 24 日,GitHub 发布公告:自 2026 年 6 月 4 日起,Copilot 将废弃原有的"高级请求单元(PRUs)",改用统一的 Token 计费货币——"Copilot premium requests"

新规则很简单:1 token = $0.04,不同模型和任务消耗不同数量:

模型 / 任务Token 消耗
GPT-4o(轻量请求)1 token
GPT-4.1、o3-mini5 tokens
Claude 3.7 Sonnet、Gemini 2.5 Pro10 tokens
Agent 模式(简单任务)25 tokens
Agent 模式(复杂任务)最高 150 tokens

订阅套餐包含的 token 额度用完后,按 $0.04/token 超量计费。不再有 fallback——额度耗尽即断供。

GitHub CEO Thomas Dohmke 的解释听起来很合理:

"AI 成本正在快速下降。Token 计费让我们可以把这些节省直接传递给开发者。随着模型效率提升,token 成本会继续下降。"

但社区的反应远没有这么平静。

这不是孤例:整个行业都在转型

GitHub 的举动,只是一场更大转型的缩影。

OpenAI 早在 API 层就一直是 token 计费,现在连消费端产品也开始叠加按量付费:Deep Research 2/次、AdvancedVoice2/次、Advanced Voice 0.05/分钟、Operator $0.06/次。

Anthropic 的 Claude API 向来按 token 收费,企业级合同也越来越多地从"按席位"转向"按消耗"。

Google Gemini 保持订阅底价,但重型任务溢价按量计算。

整体趋势非常清晰:"订阅底座 + 超量按需"的混合模式正在成为行业标准,纯平价订阅正在消失。

这背后的驱动力很直接:

  1. AI 推理成本每 18-24 个月下降约 10 倍——按量计费可以让成本下降直接惠及用户
  2. 平价订阅模式下,重度用户一直在被轻度用户"补贴",不可持续
  3. 企业客户要求成本与实际价值挂钩,而不是买一个按席位收费的黑盒

Sam Altman 的比喻:AI 是 21 世纪的电力

支持这一趋势的人喜欢引用一个类比:AI 就像电力

Sam Altman 多次将 AI 定性为"21 世纪的电力",他斥资 5000 亿美元的 Stargate 项目也正是在建设这套"AI 电网"基础设施。Token 计费,在这个框架里顺理成章——就像你用多少度电付多少电费,用了多少算力付多少 token 费用,透明、公平、可预测。

这个类比的成立之处:

  • AI 模型需要巨额集中资本投入(就像发电厂)
  • 输出(智能/算力)被广泛分发、增量消费
  • 成本随规模扩大而降低,与电力历史高度吻合
  • 按 token 计费直接映射到 per-kWh 的电费逻辑

从这个角度看,Token 计费不仅合理,还是唯一"诚实"的计费方式。

但这个比喻,有几处根本性的裂缝

问题在于,AI 和电力并不一样。

裂缝一:电是标准品,AI 不是

从任何插座流出的电,物理属性完全相同。但不同 AI 模型的能力、安全性、倾向、输出质量差异巨大。

GPT-4o 和 DeepSeek V3 的 API 都按 token 计费,但前者的输出成本是后者的 9 倍。你付的不只是"算力",还有模型能力、训练数据质量、RLHF 对齐工程的溢价。

把 AI 算力比作电,就像把米其林三星餐厅的食材成本比作普通大排档——都叫"食材",但价格里包含的东西完全不同。

裂缝二:它有软件护城河,不只是基础设施

电力没有厂商锁定——你换一家电力公司,家里的插座和电器都能照常运行。

AI 不是这样的。你在 OpenAI 上精心调优的系统 Prompt、在 Claude 上构建的 RAG 管线、基于特定模型行为的 Agent 工作流——都深度绑定在某个特定模型的特性上。换一家 provider,几乎等同于重建。

这不是基础设施的逻辑,而是平台生态的逻辑。

裂缝三:成本不可预测性,是真实的用户痛点

电费账单你基本能提前估算——上个月用了多少度,这个月大概差不多。

Token 计费的不可预测性高得多:一次 Agent 模式的复杂任务,可能消耗 150 tokens(6);一次长文档总结,可能比你预期多10倍的tokenGitHub社区有人计算,如果每天跑几个Agent工作流,月底账单可能从6);一次长文档总结,可能比你预期多 10 倍的 token。GitHub 社区有人计算,如果每天跑几个 Agent 工作流,月底账单可能从 10 飙到 $300+。

"算力如水电"听起来公平,但水电费账单不会因为你今天"用水方式复杂"就突然涨到十倍。

裂缝四:断供的后果不对等

水电断供是紧急情况,有法律保护。AI 服务 credits 用完,直接断掉,无降级体验,没有任何保底。对于将 AI 深度集成进核心工作流的团队来说,这是真实的业务风险。

现实的价格对比:谁在交叉补贴谁?

让我们看一组实际数字:

模型输入 $/MTok输出 $/MTok典型用途
GPT-4o$2.50$10.00通用旗舰
Claude 3.7 Sonnet$3.00$15.00复杂推理/长文本
GPT-4o mini$0.15$0.60简单任务
DeepSeek V3$0.27$1.10极致性价比
DeepSeek R1(推理)$0.55$2.19推理任务

DeepSeek V3 的输出成本是 GPT-4o 的 1/9,是 Claude Sonnet 的 1/14

这意味着什么?在许多日常编码和内容任务上,"顶尖模型"的 Premium 溢价,大部分来自品牌和习惯,而不是可感知的能力差距。

Token 计费的真正效果之一,是让这种价格透明化——用户开始意识到可以路由到更便宜的模型,而不是无脑用最贵的。这对整个生态是健康的竞争信号。

一个合理的用户策略

面对这一趋势,有一套经过验证的应对思路:

任务路由策略:

轻量任务(Q&A、简单代码补全)
  → DeepSeek V3 / GPT-4o mini(成本约 1/10)

中等任务(代码审查、文档总结)
  → GPT-4o / Claude Sonnet(主力模型)

重型任务(多文件重构、复杂推理)
  → Claude Opus / GPT-4.5(最高可靠性)

另外两个降本技巧:

  • Prompt Caching:Anthropic 缓存命中的 token 成本是全价的 1/10(0.30vs0.30 vs 3.00/MTok),对系统提示词和长上下文场景效果显著
  • Batch Processing:OpenAI 批量 API 提供 50% 折扣,适合非实时的批量任务

结语:合理,但需要博弈

Token 计费是合理的——它让成本与价值更对齐,让 AI 成本下降的红利可以传递给用户,也让市场竞争更透明。

但**"算力如水电"的类比是不完整的**。AI 有品牌溢价、平台锁定、软件护城河和无法预测的 token 消耗模式——这些都是纯粹的公共基础设施所不具备的商业特性。

真正需要警惕的,是这个转型背后可能隐藏的另一面:用"按量计费更公平"的叙事,将真实成本从显性的订阅费转移到隐性的用量账单中,在用户建立深度依赖之后再调价。

这不是阴谋论,这是所有平台生态的历史规律。

用户能做的:理解自己的用量模式,建立模型路由意识,保持多供应商的弹性,不要把核心工作流 100% 锁死在单一 AI provider 上。

算力可以像水电一样收费,但你不必像用水电一样——别无选择。


参考资料:GitHub Blog、The Register、InfoQ、Anthropic 官方定价、OpenAI 官方定价、DeepSeek API Docs、VentureBeat、MIT Technology Review、Brookings Institution