订阅制 → Token 计费是大趋势,算力如水电一般来计费是合理的吗?
GitHub Copilot 将于 2026 年 6 月 4 日正式切换 Token 计费。这不是一家公司的决策,而是整个 AI 行业计费逻辑的系统性转变。
一个信号:GitHub Copilot 的计费革命
2025 年 4 月 24 日,GitHub 发布公告:自 2026 年 6 月 4 日起,Copilot 将废弃原有的"高级请求单元(PRUs)",改用统一的Token 计费货币——“Copilot premium requests”。
新规则很简单:1 token = $0.04,不同模型和任务消耗不同数量:
| 模型 / 任务 | Token 消耗 |
|---|---|
| GPT-4o(轻量请求) | 1 token |
| GPT-4.1、o3-mini | 5 tokens |
| Claude 3.7 Sonnet、Gemini 2.5 Pro | 10 tokens |
| Agent 模式(简单任务) | 25 tokens |
| Agent 模式(复杂任务) | 最高 150 tokens |
订阅套餐包含的 token 额度用完后,按 $0.04/token 超量计费。不再有 fallback——额度耗尽即断供。
GitHub CEO Thomas Dohmke 的解释听起来很合理:
“AI 成本正在快速下降。Token 计费让我们可以把这些节省直接传递给开发者。随着模型效率提升,token 成本会继续下降。”
但社区的反应远没有这么平静。
这不是孤例:整个行业都在转型
GitHub 的举动,只是一场更大转型的缩影。
OpenAI早在 API 层就一直是 token 计费,现在连消费端产品也开始叠加按量付费:Deep Research $2/次、Advanced Voice $0.05/分钟、Operator $0.06/次。
Anthropic的 Claude API 向来按 token 收费,企业级合同也越来越多地从"按席位"转向"按消耗"。
Google Gemini保持订阅底价,但重型任务溢价按量计算。
整体趋势非常清晰:"订阅底座 + 超量按需"的混合模式正在成为行业标准,纯平价订阅正在消失。
这背后的驱动力很直接:
- AI 推理成本每 18-24 个月下降约 10 倍——按量计费可以让成本下降直接惠及用户
- 平价订阅模式下,重度用户一直在被轻度用户"补贴",不可持续
- 企业客户要求成本与实际价值挂钩,而不是买一个按席位收费的黑盒
Sam Altman 的比喻:AI 是 21 世纪的电力
支持这一趋势的人喜欢引用一个类比:AI 就像电力。
Sam Altman 多次将 AI 定性为"21 世纪的电力",他斥资 5000 亿美元的 Stargate 项目也正是在建设这套"AI 电网"基础设施。Token 计费,在这个框架里顺理成章——就像你用多少度电付多少电费,用了多少算力付多少 token 费用,透明、公平、可预测。
这个类比的成立之处:
- AI 模型需要巨额集中资本投入(就像发电厂)
- 输出(智能/算力)被广泛分发、增量消费
- 成本随规模扩大而降低,与电力历史高度吻合
- 按 token 计费直接映射到 per-kWh 的电费逻辑
从这个角度看,Token 计费不仅合理,还是唯一"诚实"的计费方式。
- 按 token 计费直接映射到 per-kWh 的电费逻辑
但这个比喻,有几处根本性的裂缝
问题在于,AI 和电力并不一样。
裂缝一:电是标准品,AI 不是
从任何插座流出的电,物理属性完全相同。但不同 AI 模型的能力、安全性、倾向、输出质量差异巨大。
GPT-4o 和 DeepSeek V3 的 API 都按 token 计费,但前者的输出成本是后者的9 倍。你付的不只是"算力",还有模型能力、训练数据质量、RLHF 对齐工程的溢价。
把 AI 算力比作电,就像把米其林三星餐厅的食材成本比作普通大排档——都叫"食材",但价格里包含的东西完全不同。
裂缝二:它有软件护城河,不只是基础设施
电力没有厂商锁定——你换一家电力公司,家里的插座和电器都能照常运行。
AI 不是这样的。你在 OpenAI 上精心调优的系统 Prompt、在 Claude 上构建的 RAG 管线、基于特定模型行为的 Agent 工作流——都深度绑定在某个特定模型的特性上。换一家 provider,几乎等同于重建。
这不是基础设施的逻辑,而是平台生态的逻辑。
裂缝三:成本不可预测性,是真实的用户痛点
电费账单你基本能提前估算——上个月用了多少度,这个月大概差不多。
Token 计费的不可预测性高得多:一次 Agent 模式的复杂任务,可能消耗 150 tokens($6);一次长文档总结,可能比你预期多 10 倍的 token。GitHub 社区有人计算,如果每天跑几个 Agent 工作流,月底账单可能从 $10 飙到 $300+。
"算力如水电"听起来公平,但水电费账单不会因为你今天"用水方式复杂"就突然涨到十倍。
裂缝四:断供的后果不对等
水电断供是紧急情况,有法律保护。AI 服务 credits 用完,直接断掉,无降级体验,没有任何保底。对于将 AI 深度集成进核心工作流的团队来说,这是真实的业务风险。
现实的价格对比:谁在交叉补贴谁?
让我们看一组实际数字:
| 模型 | 输入 $/MTok | 输出 $/MTok | 典型用途 |
|---|---|---|---|
| GPT-4o | $2.50 | $10.00 | 通用旗舰 |
| Claude 3.7 Sonnet | $3.00 | $15.00 | 复杂推理/长文本 |
| GPT-4o mini | $0.15 | $0.60 | 简单任务 |
| DeepSeek V3 | $0.27 | $1.10 | 极致性价比 |
| DeepSeek R1(推理) | $0.55 | $2.19 | 推理任务 |
DeepSeek V3 的输出成本是 GPT-4o 的1/9,是 Claude Sonnet 的1/14。
这意味着什么?在许多日常编码和内容任务上,"顶尖模型"的 Premium 溢价,大部分来自品牌和习惯,而不是可感知的能力差距。
Token 计费的真正效果之一,是让这种价格透明化——用户开始意识到可以路由到更便宜的模型,而不是无脑用最贵的。这对整个生态是健康的竞争信号。
一个合理的用户策略
面对这一趋势,有一套经过验证的应对思路:
任务路由策略: 轻量任务(Q&A、简单代码补全) → DeepSeek V3 / GPT-4o mini(成本约 1/10) 中等任务(代码审查、文档总结) → GPT-4o / Claude Sonnet(主力模型) 重型任务(多文件重构、复杂推理) → Claude Opus / GPT-4.5(最高可靠性)另外两个降本技巧:
- Prompt Caching:Anthropic 缓存命中的 token 成本是全价的 1/10($0.30 vs $3.00/MTok),对系统提示词和长上下文场景效果显著
- Batch Processing:OpenAI 批量 API 提供 50% 折扣,适合非实时的批量任务
结语:合理,但需要博弈
Token 计费是合理的——它让成本与价值更对齐,让 AI 成本下降的红利可以传递给用户,也让市场竞争更透明。
但**"算力如水电"的类比是不完整的**。AI 有品牌溢价、平台锁定、软件护城河和无法预测的 token 消耗模式——这些都是纯粹的公共基础设施所不具备的商业特性。
真正需要警惕的,是这个转型背后可能隐藏的另一面:用"按量计费更公平"的叙事,将真实成本从显性的订阅费转移到隐性的用量账单中,在用户建立深度依赖之后再调价。
这不是阴谋论,这是所有平台生态的历史规律。
用户能做的:理解自己的用量模式,建立模型路由意识,保持多供应商的弹性,不要把核心工作流 100% 锁死在单一 AI provider 上。
算力可以像水电一样收费,但你不必像用水电一样——别无选择。
参考资料:GitHub Blog、The Register、InfoQ、Anthropic 官方定价、OpenAI 官方定价、DeepSeek API Docs、VentureBeat、MIT Technology Review、Brookings Institution