2026 国内 七大 AI 大模型定价全对比
主要是最近两月AI coding 和 openClaw 的爆火,导致各大厂商的模型使用需求和使用量持续暴涨,出现了抢购、限购潮,各家纷纷涨价(含变相涨价)、限制购买、限频、限场景。
本文数据截至 2026 年 4 月,来源于各厂商官方定价页面及公开信息,价格可能随时变动,请以官网最新数据为准。
大模型 API 的价格战从 2024 年打到 2026 年,已经从"分钱"时代进入了"厘钱"时代。对于开发者和企业来说,选模型不再只是看能力——每百万 Token 省几块钱,年成本可能差出几十万。
本文覆盖七家主流国产大模型厂商:智谱 AI(GLM)、稀宇科技(MiniMax)、小米(Mimo)、月之暗面(Kimi)、阿里云(Qwen)、腾讯(混元)、字节跳动(豆包),从 API 按量计费、Coding Plan 订阅套餐、免费额度、资源包方案四个维度做全面拆解。
一、七家厂商主力模型一览
1. 智谱 AI(GLM)
厂商背景:清华 KEG 实验室孵化,国内最早一批大模型创业公司,GLM 系列模型在 SuperBench 评测中安全与智能体维度排名全球第一。目前主要模型 GLM-5.1,GLM-5,GLM-4.7
模型矩阵:
| 模型 | 定位 | 上下文窗口 | 特色 |
|---|---|---|---|
| GLM-4-Plus | 旗舰模型 | 128K | 综合能力最强,与 GPT-4o、Llama3.1-405B 同级 |
| GLM-4-Long | 超长文本 | 1M | 百万级上下文,适合长文档处理 |
| GLM-4-Flash / FlashX | 免费/极速 | 128K | 完全免费,支持微调,入门首选 |
| GLM-4-Air | 轻量版 | 128K | 成本极低,适合高频低精度场景 |
| GLM-4V-Plus | 视觉理解 | 8K | 图像/视频理解 |
| GLM-Z1-Air / Z1-AirX | 推理模型 | 128K | 深度推理能力 |
| GLM-5 | 旗舰助理 | — | 2025 年发布,第一梯队 |
| GLM-5.1 | 最新旗舰 | — | 2026 年3月发布,SWE-bench 第一梯队 |
API 按量定价(元/百万 Tokens):
| 模型 | 输入 | 输出 | 备注 |
|---|---|---|---|
| GLM-4-Plus | 5 | 5 | 2025 年 4 月直降 90%(原价 50 元/百万 Tokens) |
| GLM-4-Long | 1 | 1 | 超长文本专用 |
| GLM-4-FlashX | 0.1 | 0.1 | 每亿 Tokens 仅 10 元 |
| GLM-4-Flash | 免费 | 免费 | 完全免费使用 |
| GLM-4-Air | 0.6 | 0.6 | — |
| GLM-Z1-Air | 0.5 | 0.5 | 每亿 Tokens 50 元 |
| GLM-Z1-AirX | 5 | 5 | 每亿 Tokens 500 元 |
注:智谱部分模型不区分输入/输出价格,统一按 Token 总量计费。
Coding Plan 订阅套餐:
GLM Coding Plan 是专为 AI 编程场景打造的订阅套餐,支持 Claude Code、Cline、Cursor 等 20+ 编程工具。
| 套餐 | 月费 | 季费(9 折) | 年费(7 折) | 5 小时限额 | 周限额 | 可用模型 |
|---|---|---|---|---|---|---|
| Lite | ¥49 | ¥132 | ¥411 | ~80 prompts | ~400 prompts | GLM-4.7/4.6 |
| Pro | ¥149 | ¥402 | ¥1,251 | ~400 prompts | ~2,000 prompts | GLM-5/4.7/4.6 全部 |
| Max | ¥469 | ¥1,266 | ¥3,939 | ~1,600 prompts | ~8,000 prompts | GLM-5/4.7/4.6 全部 |
- 每次 prompt 约触发 15-20 次模型调用
- 调用 GLM-5 消耗 3 倍额度(仅 Pro/Max 可用)
- MCP 工具:Lite 100 次/月,Pro 1,000 次/月,Max 4,000 次/月
- 2026 年 2 月涨价 30%,取消首购优惠;每日 10:00 限量补货
免费额度:GLM-4-Flash 完全免费,新用户注册即享体验额度。
2. 稀宇科技(MiniMax)
厂商背景:国内 AI 独角兽,以多模态能力著称,旗下产品"海螺 AI"广受欢迎。MiniMax 是国内最早投入 MoE 架构的厂商之一,语音合成和视频生成能力业界领先。
模型矩阵:
| 模型 | 定位 | 上下文窗口 | 特色 |
|---|---|---|---|
| MiniMax-M2.7 | 最新旗舰 | 197K+ | 深度思考 + 高速双版本 |
| MiniMax-M2.5 | 高性能通用 | 197K+ | 支持深度思考 |
| MiniMax-M2.1 | 高性能 | 197K+ | — |
| MiniMax-M2 | 经典文本 | 197K+ | — |
| MiniMax-01 | 多模态 | 1M | 图像分析 |
| MiniMax-M1 | 旗舰推理 | 1M | 复杂推理、数学 |
| 海螺视频(Hailuo) | 视频生成 | — | Hailuo-2.3 系列 |
| 语音合成 | TTS | — | speech-2.8-hd/turbo |
API 按量定价(元/百万 Tokens):
| 模型 | 输入 | 输出 | 缓存读取 | 缓存写入 |
|---|---|---|---|---|
| MiniMax-M2.7 | 2.1 | 8.4 | 0.42 | 2.625 |
| MiniMax-M2.7-highspeed | 4.2 | 16.8 | 0.42 | 2.625 |
| MiniMax-M2.5 | 2.1 | 8.4 | 0.21 | 2.625 |
| MiniMax-M2.5-highspeed | 4.2 | 16.8 | 0.21 | 2.625 |
| M2-her | 2.1 | 8.4 | — | — |
| MiniMax-M2.1(历史) | 2.1 | 8.4 | 0.21 | 2.625 |
| MiniMax-M2(历史) | 2.1 | 8.4 | 0.21 | 2.625 |
注:highspeed 版本为高速模式,输出更快但价格翻倍。
多模态定价:
| 服务 | 价格 |
|---|---|
| 语音合成 HD | 3.5 元/万字符 |
| 语音合成 Turbo | 2 元/万字符 |
| 音色设计/快速复刻 | 9.9 元/音色(首次使用时收取) |
| 视频生成(Hailuo-2.3 768P 6s) | 2 元/视频 |
| 视频生成(Hailuo-2.3 1080P 6s) | 3.5 元/视频 |
| 音乐生成 | 1 元/首 |
| 图像生成 | 0.025 元/张 |
免费额度:阿里云百炼渠道提供 100 万 Tokens 免费额度(180 天有效)。
3. 小米(Mimo)
厂商背景:小米 2025 年底推出自研 MiMo 大模型,2026 年 1 月正式开放 API 付费。MiMo-V2-Pro 在 OpenRouter 平台连续霸榜,支持 1M 超长上下文,是国产模型中的新锐力量。
模型矩阵:
| 模型 | 定位 | 上下文窗口 | 最大输出 | 特色 |
|---|---|---|---|---|
| MiMo-V2-Pro | 旗舰推理 | 1M | 128K | 深度思考、函数调用、联网搜索 |
| MiMo-V2-Omni | 多模态理解 | 256K | 128K | 视觉+文本输入、深度思考 |
| MiMo-V2-Flash | 轻量高效 | 256K | 64K | 高吞吐、格式提取、高并发 |
| MiMo-V2-TTS | 语音合成 | 8K | 8K | 限时免费 |
API 按量定价:
国内价格(元/百万 Tokens):
| 模型 | 输入 | 输入(缓存命中) | 输出 |
|---|---|---|---|
| MiMo-V2-Pro(≤256K) | 7 | 1.47 | 21 |
| MiMo-V2-Pro(256K-1M) | 14 | 2.94 | 42 |
| MiMo-V2-Omni | 2.94 | 0.56 | 14.70 |
| MiMo-V2-Flash | 0.7 | 0.07 | 2.1 |
国际价格(美元/百万 Tokens):
| 模型 | 输入 | 输入(缓存命中) | 输出 |
|---|---|---|---|
| MiMo-V2-Pro(≤256K) | $1.05 | $0.21 | $3.15 |
| MiMo-V2-Pro(256K-1M) | $2.10 | $0.42 | $6.30 |
| MiMo-V2-Omni | $0.42 | $0.08 | $2.10 |
| MiMo-V2-Flash | $0.11 | $0.01 | $0.32 |
Token Plan 订阅套餐(2026 年 4 月推出):
小米采用统一 Credit 点数体系,不同模型消耗 Credit 比例不同。
| 套餐 | 月费 | Credits | 面向 |
|---|---|---|---|
| Lite | ¥39 | 0.6 亿 | 轻度开发者 |
| Standard | ¥99 | 2 亿 | 中度开发者 |
| Pro | ¥329 | 7 亿 | 重度开发者 |
| Max | ¥659 | 16 亿 | 企业/团队 |
- MiMo-V2-Omni 256K 上下文消耗 1x Credit
- MiMo-V2-Pro 256K 消耗 2x Credit,更长上下文消耗 4x Credit
- MiMo-V2-TTS 限时免费
- 购买套餐用户可获得新模型优先内测体验权
免费额度:早期注册用户已收到约 20 元赠送余额。
4. 月之暗面(Kimi)
厂商背景:由清华大学校友创立,Kimi 是国内最早以长上下文为卖点的大模型产品。K2 系列 MoE 模型总参数 1T、激活参数 32B,在代码和 Agent 能力上表现突出。最新 K2.6 模型已上线。
模型矩阵:
| 模型 | 定位 | 上下文窗口 | 特色 |
|---|---|---|---|
| kimi-k2.6 | 最新旗舰 | 256K | 多模态(视觉+文本),深度思考,指令遵循与自我纠错 |
| kimi-k2-0905-preview | K2 旗舰 | 256K | 超强 Agentic Coding |
| kimi-k2-turbo-preview | K2 高速版 | 256K | 输出速度 60-100 tok/s |
| kimi-k2-thinking | K2 推理版 | 256K | 深度推理 |
| kimi-k2-thinking-turbo | K2 推理高速版 | 256K | 深度推理+极速 |
| moonshot-v1-8k | 经典轻量 | 8K | 低成本入门 |
| moonshot-v1-32k | 经典中量 | 32K | 中等上下文 |
| moonshot-v1-128k | 经典长文本 | 128K | 超长上下文 |
注:kimi-k2 系列将于 2026 年 5 月 25 日下线,建议迁移至 kimi-k2.6。
API 按量定价(元/百万 Tokens):
Kimi K2.6:
| 模型 | 输入(缓存命中) | 输入(缓存未命中) | 输出 | 上下文 |
|---|---|---|---|---|
| kimi-k2.6 | ¥1.10 | ¥6.50 | ¥27.00 | 256K |
Kimi K2:
| 模型 | 输入(缓存命中) | 输入(缓存未命中) | 输出 | 上下文 |
|---|---|---|---|---|
| kimi-k2-0905-preview | ¥1.00 | ¥4.00 | ¥16.00 | 256K |
| kimi-k2-0711-preview | ¥1.00 | ¥4.00 | ¥16.00 | 128K |
| kimi-k2-turbo-preview | ¥1.00 | ¥8.00 | ¥58.00 | 256K |
| kimi-k2-thinking | ¥1.00 | ¥4.00 | ¥16.00 | 256K |
| kimi-k2-thinking-turbo | ¥1.00 | ¥8.00 | ¥58.00 | 256K |
Moonshot V1:
| 模型 | 输入 | 输出 | 上下文 |
|---|---|---|---|
| moonshot-v1-8k | ¥2.00 | ¥10.00 | 8K |
| moonshot-v1-32k | ¥5.00 | ¥20.00 | 32K |
| moonshot-v1-128k | ¥10.00 | ¥30.00 | 128K |
| moonshot-v1-8k-vision-preview | ¥2.00 | ¥10.00 | 8K |
| moonshot-v1-32k-vision-preview | ¥5.00 | ¥20.00 | 32K |
| moonshot-v1-128k-vision-preview | ¥10.00 | ¥30.00 | 128K |
Code Plan 订阅套餐(Kimi Code):
| 套餐 | 月费 | 年费 | 5 小时配额 | 特色 |
|---|---|---|---|---|
| Andante | ¥49 | ¥468(月均¥39) | ~300-1,200 次调用 | Kimi K2.5 旗舰模型,AI 建站/文档/PPT 权益 |
| Moderato | ¥99 | ¥948(月均¥79) | 更大配额 | 多设备登录共享,支持 Kimi CLI/Claude Code/Roo Code |
| Allegretto | ¥199 | — | — | 更高配额 |
| Allegro | ¥699 | — | — | 最高配额 |
- 额度每 7 天刷新,未用完不累积
- 最大并发 30
- 限时活动:所有套餐额度扩容 3 倍
- 年付 Andante 省 ¥120,Moderato 省 ¥240
阶梯权益:基于累计充值金额动态提升限速等级。
5. 阿里云(Qwen/千问)
厂商背景:阿里云百炼平台是国内最大的 MaaS 平台之一,千问系列模型已迭代至 Qwen3.6,开源生态极为活跃。百炼不仅提供自研模型,还集成了 MiniMax、智谱等第三方模型。
模型矩阵(中国内地):
| 模型 | 定位 | 上下文窗口 | 特色 |
|---|---|---|---|
| qwen3.6-max-preview | 旗舰预览 | 256K | 最新最强 |
| qwen3-max | 旗舰 | 128K-252K | 阶梯定价,按上下文长度分段 |
| qwen3.5-plus | 高性能通用 | 1M | 思考模式与非思考模式 |
| qwen3.5-omni-plus | 多模态旗舰 | — | 支持视觉、语音 |
| qwen3.5-omni-flash | 多模态轻量 | — | 低成本多模态 |
| qwen3-omni-flash | 多模态快速 | — | 实时语音 |
| qwen-long | 超长文本 | 1M | 长文档专用 |
| qwen3-32b | 开源中量 | — | 开源自部署 |
| qwen3-8b | 开源轻量 | — | 开源自部署 |
API 按量定价(元/百万 Tokens,中国内地):
千问 Max(旗舰):
| 模型 | 输入长度 | 输入 | 输出 |
|---|---|---|---|
| qwen3-max | 0-32K | 2.5 | 10 |
| qwen3-max | 32K-128K | 4 | 16 |
| qwen3-max | 128K-252K | 7 | 28 |
千问 Plus(通用主力):
| 模型 | 输入长度 | 输入 | 输出 |
|---|---|---|---|
| qwen3.5-plus | 0-128K | 0.8 | 4.8 |
| qwen3.5-plus | 128K-256K | 2 | 12 |
| qwen3.5-plus | 256K-1M | 4 | 24 |
思考模式输出价格与非思考模式相同;Batch 调用享 50% 折扣。
千问 Flash / 轻量系列:
| 模型 | 输入 | 输出 |
|---|---|---|
| qwen3.6-flash | 0.367 | 2.936 |
| qwen-turbo | 0.3 | 0.6 |
| qwen-long | 0.5 | 2 |
开源模型部署定价:
| 模型 | 价格 |
|---|---|
| qwen3-32b | 0.04 元/千Token |
| qwen3-8b | 0.006 元/千Token |
| qwen3-1.7b | 0.0045 元/千Token |
多模态定价:
| 模型 | 文本输入 | 音频输入 | 图片/视频输入 | 文本输出 |
|---|---|---|---|---|
| qwen3-omni-flash | 1.8 元/M | 15.8 元/M | 3.3 元/M | 6.9 元/M |
免费额度:新用户开通百炼可领取超 7000 万免费 Tokens,多数模型开通后 90 天内各 100 万 Token 免费额度。
资源包方案:阿里云百炼提供 Token 资源包/抵扣包,支持预付费模式,价格优于按量后付费。
6. 腾讯(混元 Hunyuan)
厂商背景:腾讯混元大模型依托腾讯云基础设施,具备强大的中文创作和逻辑推理能力。2026 年 3-4 月,腾讯云经历两轮调价:模型 API 价格大幅上调(如 HY 2.0 Instruct 输入价涨幅 463%),AI 算力刊例价上调 5%。
模型矩阵:
| 模型 | 定位 | 上下文窗口 | 特色 |
|---|---|---|---|
| Tencent HY 2.0 Think | 深度推理旗舰 | 128K | 分段定价(32K/128K) |
| Tencent HY 2.0 Instruct | 指令遵循旗舰 | 128K | 分段定价 |
| Hunyuan-T1 | 通用主力 | 256K | 性价比首选 |
| Hunyuan-TurboS | 高速版 | 128K | 极速响应 |
| Hunyuan-a13b | 轻量版 | — | 低成本 |
| Hunyuan-large-role | 长角色扮演 | — | 角色扮演专用 |
| Hunyuan-translation | 翻译模型 | — | 专业翻译 |
| Tencent HY Vision 1.5 | 视觉理解 | — | 图像理解 |
| Hunyuan-lite | 免费版 | — | 完全免费使用 |
API 按量定价(元/百万 Tokens):
| 模型 | 输入 | 输出 | 备注 |
|---|---|---|---|
| HY 2.0 Think(0,32K] | 3.975 | 15.9 | 高端推理 |
| HY 2.0 Think(32K,128K] | 5.3 | 21.2 | 超长上下文加价 |
| HY 2.0 Instruct(0,32K] | 3.18 | 7.95 | — |
| HY 2.0 Instruct(32K,128K] | 4.505 | 11.13 | — |
| Hunyuan-T1 | 1 | 4 | — |
| Hunyuan-TurboS | 0.8 | 2 | 性价比高 |
| Hunyuan-a13b | 0.5 | 2 | 入门之选 |
| Hunyuan-large-role | 2.4 | 9.6 | — |
| Hunyuan-translation | 1.2 | 3.6 | — |
| Hunyuan-translation-lite | 1 | 3 | — |
| HY Vision 1.5 | 3 | 9 | 视觉 |
| Hunyuan-turbos-vision | 3 | 9 | 视觉 |
| Hunyuan-t1-vision | 3 | 9 | 视觉 |
| Hunyuan-embedding | 0.7 | 0.7 | 向量模型 |
| Hunyuan-lite | 免费 | 免费 | — |
预付费资源包:
| 规格 | 价格 |
|---|---|
| 1 万点 | ¥100 |
| 10 万点 | ¥950 |
| 100 万点 | ¥9,000 |
| 1000 万点 | ¥85,000 |
| 1 亿点 | ¥800,000 |
- 抵扣系数:如 Hunyuan-TurboS 输入 0.08 点/千Tokens,输出 0.2 点/千Tokens
- 并发增购:¥800/并发/月,默认 5 个并发
免费额度:首次开通即享 100 万 Tokens 免费资源包(1 年有效),Hunyuan-lite 完全免费。
⚠️ 重要提示:2026 年 3 月起,腾讯云结束了 GLM 5、MiniMax 2.5、Kimi 2.5 等第三方模型的限时免费公测,并大幅上调混元自有模型价格。使用前务必确认最新价格。
7. 字节跳动(豆包 Doubao)
厂商背景:字节跳动通过火山引擎(Volcengine)对外提供豆包大模型服务。豆包前身"云雀",是国内首批通过算法备案的大模型之一。Seed 2.0 系列覆盖通用、代码、轻量、极小四档,定价极具攻击性。
模型矩阵:
| 模型 | 定位 | 上下文窗口 | 特色 |
|---|---|---|---|
| Doubao-Seed-2.0-Pro | 通用旗舰 | 128K/256K | 复杂推理、Agent 任务(全球第三,仅次于 Claude Sonnet 4.6 和 GPT-5.4) |
| Doubao-Seed-2.0-Code | 代码专精 | 128K | Python/JS 生成接近 Claude Sonnet 4.6 水平,价格仅 1/5 |
| Doubao-Seed-2.0-Lite | 轻量版 | 64K | 分类/提取等高吞吐场景 |
| Doubao-Seed-2.0-Mini | 极小版 | 32K | 边缘/移动端部署 |
| Doubao-Seed-1.8 | 上一代旗舰 | — | 较低价 |
| Doubao-Seed-1.6 | 性价比版 | — | 入门 |
| Doubao-Seed-1.6-Lite | 极轻量 | — | 超低成本 |
| Doubao-Seed-1.6-Flash | 极速版 | — | 输入极低 |
| Doubao-Seed-Vision | 视觉理解 | — | 图像理解 |
API 按量定价(元/百万 Tokens):
Seed 2.0 系列(最新):
| 模型 | 输入 | 输出 | 缓存 | Batch 折扣 | 上下文 |
|---|---|---|---|---|---|
| Doubao-Seed-2.0-Pro | 3.2 | 16 | 0.8 | 45% | 128K |
| Doubao-Seed-2.0-Code | 3.2 | 16 | 0.8 | 45% | 128K |
| Doubao-Seed-2.0-Lite | 0.6 | 3.66 | 0.15 | 50% | 64K |
| Doubao-Seed-2.0-Mini | 0.2 | 2 | 0.05 | 50% | 32K |
美元价:Pro 输入 2.15/M;Lite 输入 0.71/M。
Seed 1.x 系列(过渡):
| 模型 | 输入 | 输出 |
|---|---|---|
| Doubao-Seed-1.8 | 0.8 | 2.0 |
| Doubao-Seed-1.6 | 0.3 | 0.6 |
| Doubao-Seed-1.6-Lite | 0.15 | 0.3 |
| Doubao-Seed-1.6-Flash | 0.075 | 0.75 |
| Doubao-Seed-Vision | 0.4 | 4.0 |
资源包方案:
| 规格 | 价格 | 折算单价 |
|---|---|---|
| 1000 万 Token 包 | ¥19.9 | 新客专享,约标准价 4 折 |
| 1 亿 Token 包 | ¥301 | — |
| 5 亿 Token 包 | ¥1,339 | — |
语音模型另计:播客输入 120 元/M Tokens,音频输出 300 元/M Tokens。
免费额度:新客首购 1000 万 Token 包仅 ¥19.9(约标准价 4 折)。
二、旗舰模型定价横评
以下为各厂商最强/最贵模型的输入/输出价格对比(元/百万 Tokens):
| 厂商 | 旗舰模型 | 输入 | 输出 | 上下文 | 价格特点 |
|---|---|---|---|---|---|
| 智谱 | GLM-4-Plus | 5 | 5 | 128K | 不区分输入输出,统一 5 元 |
| MiniMax | MiniMax-M2.7 | 2.1 | 8.4 | 197K+ | 缓存读取仅 0.42 |
| 小米 | MiMo-V2-Pro | 7 | 21 | 1M | 1M 上下文加价至 14/42 |
| Kimi | kimi-k2.6 | 6.5 | 27 | 256K | 输出最贵,缓存命中 1.1 |
| 阿里 | qwen3-max | 2.5 | 10 | 252K | 阶梯定价,低区间极便宜 |
| 腾讯 | HY 2.0 Think | 3.975 | 15.9 | 128K | 分段加价,高端最贵 |
| 字节 | Seed-2.0-Pro | 3.2 | 16 | 128K | 有缓存和 Batch 折扣 |
关键发现:
- 最便宜旗舰:阿里 qwen3-max(0-32K 档)输入 2.5 元,输出 10 元,综合最低
- 最贵旗舰:Kimi K2.6 输出 27 元/百万 Tokens,但缓存命中仅 1.1 元
- 1M 超长上下文:小米 MiMo-V2-Pro 和阿里 qwen3.5-plus 都支持百万级上下文,但小米加价幅度更大(2-3 倍)
- 缓存机制:Kimi 和 MiniMax 缓存命中价格极低(1.1 元和 0.42 元),适合重复上下文场景
三、轻量/免费模型定价横评
对于预算有限或调用量大的场景,轻量模型是核心选择:
| 厂商 | 轻量模型 | 输入 | 输出 | 上下文 | 是否免费 |
|---|---|---|---|---|---|
| 智谱 | GLM-4-Flash | 0 | 0 | 128K | ✅ 完全免费 |
| 智谱 | GLM-4-FlashX | 0.1 | 0.1 | 128K | ❌ 但极便宜 |
| 智谱 | GLM-4-Air | 0.6 | 0.6 | 128K | ❌ |
| MiniMax | MiniMax-M2.5 | 2.1 | 8.4 | 197K+ | ❌ |
| 小米 | MiMo-V2-Flash | 0.7 | 2.1 | 256K | ❌ 但缓存命中仅 0.07 |
| 阿里 | qwen-turbo | 0.3 | 0.6 | — | ❌ 但极低 |
| 阿里 | qwen-long | 0.5 | 2 | 1M | ❌ 长文本专用 |
| 腾讯 | Hunyuan-lite | 0 | 0 | — | ✅ 完全免费 |
| 腾讯 | Hunyuan-TurboS | 0.8 | 2 | 128K | ❌ |
| 腾讯 | Hunyuan-a13b | 0.5 | 2 | — | ❌ |
| 字节 | Seed-2.0-Mini | 0.2 | 2 | 32K | ❌ |
| 字节 | Seed-2.0-Lite | 0.6 | 3.66 | 64K | ❌ |
| 字节 | Seed-1.6-Flash | 0.075 | 0.75 | — | ❌ 全场最低输入价 |
关键发现:
- 完全免费模型:智谱 GLM-4-Flash 和腾讯 Hunyuan-lite,零成本起步
- 最低输入价:字节 Seed-1.6-Flash 输入仅 0.075 元/百万 Tokens
- 最佳免费起步路径:智谱 GLM-4-Flash(128K 上下文、支持微调、免费)> 腾讯 Hunyuan-lite
- 长文本性价比王:阿里 qwen-long(0.5 元输入、1M 上下文)
四、Coding Plan 订阅套餐横评
对于 AI 编程场景,各厂商推出的订阅套餐比按量计费更划算:
| 厂商 | 套餐名 | 月费 | 核心模型 | 用量/5h | 用量/周 | 特色 |
|---|---|---|---|---|---|---|
| 智谱 | Lite | ¥49 | GLM-4.7/4.6 | ~80 prompts | ~400 prompts | MCP 100 次/月 |
| 智谱 | Pro | ¥149 | GLM-5/4.7/4.6 | ~400 prompts | ~2,000 prompts | MCP 1,000 次/月,视觉理解 |
| 智谱 | Max | ¥469 | GLM-5/4.7/4.6 | ~1,600 prompts | ~8,000 prompts | MCP 4,000 次/月,优先保障 |
| Kimi | Andante | ¥49 | K2.5 | ~300-1,200 调用 | 7 天周期刷新 | AI 建站/文档/PPT 权益 |
| Kimi | Moderato | ¥99 | K2.5 | 更大配额 | 7 天周期刷新 | 多设备共享,支持 Claude Code |
| Kimi | Allegretto | ¥199 | K2.5 | — | — | 更高配额 |
| Kimi | Allegro | ¥699 | K2.5 | — | — | 最高配额 |
| 小米 | Lite | ¥39 | MiMo-V2 全系列 | — | — | 0.6 亿 Credits |
| 小米 | Standard | ¥99 | MiMo-V2 全系列 | — | — | 2 亿 Credits |
| 小米 | Pro | ¥329 | MiMo-V2 全系列 | — | — | 7 亿 Credits |
| 小米 | Max | ¥659 | MiMo-V2 全系列 | — | — | 16 亿 Credits |
腾讯混元、阿里 Qwen、字节豆包、MiniMax 目前未推出 Coding Plan 订阅套餐。
选型建议:
- 轻度编程(偶尔写脚本):智谱 Lite ¥49 或 Kimi Andante ¥49 或小米 Lite ¥39
- 日常编码 + Agent 工具:智谱 Pro ¥149 或 Kimi Moderato ¥99
- 重度编程 + 多项目并发:智谱 Max ¥469 或 Kimi Allegro ¥699
- 预算极致压缩:小米 Standard ¥99(2 亿 Credits 灵活度高)
五、免费额度与新人福利汇总
| 厂商 | 免费额度 | 有效期 | 获取方式 |
|---|---|---|---|
| 智谱 | GLM-4-Flash 完全免费 + 体验额度 | 永久/长期 | 注册即用 |
| MiniMax | 100 万 Tokens(百炼渠道) | 180 天 | 申请通过后发放 |
| 小米 | 约 20 元赠送余额 | — | 早期注册用户 |
| Kimi | 文件抽取/存储接口限时免费 | 限时 | 自动享受 |
| 阿里 | 超 7000 万免费 Tokens | 90 天 | 开通百炼自动领取 |
| 腾讯 | 100 万 Tokens 免费资源包 + Hunyuan-lite 免费 | 1 年 | 首次开通自动发放 |
| 字节 | 新客 1000 万 Token 包 ¥19.9 | 3 个月 | 首次购买 |
免费模型一览:
- 智谱 GLM-4-Flash:完全免费,128K 上下文,支持微调
- 腾讯 Hunyuan-lite:完全免费
- 小米 MiMo-V2-TTS:语音合成限时免费
- MiniMax abab6.5s(百炼渠道):限时免费
- 阿里千问部分开源模型:限时免费体验
六、行业趋势与选型策略
价格趋势
- 价格战从"分"打到"厘":2024 年各厂商还在"元/百万 Tokens"量级竞争,2025-2026 年已进入"0.1 元/百万 Tokens"量级,豆包 Seed-1.6-Flash 输入价仅 0.075 元
- 涨价信号出现:腾讯 2026 年 3-4 月两轮涨价(模型 API 涨幅高达 463%,算力涨 5%),结束了持续两年的单边降价
- 缓存机制成标配:Kimi、MiniMax、小米、阿里均推出上下文缓存,缓存命中价格可低至 0.07-1.1 元/百万 Tokens
- 阶梯定价普及:阿里 qwen3-max、腾讯 HY 2.0、小米 MiMo-V2-Pro 均按上下文长度分段计价,短上下文更便宜
选型策略
| 场景 | 推荐方案 | 理由 |
|---|---|---|
| 零成本试水 | 智谱 GLM-4-Flash / 腾讯 Hunyuan-lite | 完全免费,无门槛 |
| 大规模高并发 | 字节 Seed-1.6-Flash / 阿里 qwen-turbo | 输入价 0.075-0.3 元,支持高 TPM |
| 超长文本处理 | 智谱 GLM-4-Long / 阿里 qwen-long / 小米 MiMo-V2-Pro | 1M 上下文,价格 0.5-7 元 |
| 代码生成/编程 | 字节 Seed-2.0-Code / 智谱 Coding Plan Pro | 代码专精模型 + 订阅套餐 |
| 多模态应用 | 阿里 qwen3-omni-flash / 小米 MiMo-V2-Omni | 全模态覆盖,价格合理 |
| 语音/视频生成 | MiniMax 语音+视频 | 行业最强多模态,语音 2 元/万字符,视频 2 元/个起 |
| 深度推理 | Kimi K2.6 / 智谱 GLM-Z1-AirX / 腾讯 HY 2.0 Think | 旗舰推理模型 |
| 企业合规 | 阿里百炼 / 腾讯混元 / 智谱 GLM | 大厂合规保障 + 私有化部署 |
七、总结
2026 年的国内大模型市场,呈现出"旗舰降价、轻量免费、订阅兴起"三大趋势:
- 旗舰模型:阿里 qwen3-max 综合性价比最高(2.5/10 元),智谱 GLM-4-Plus 降价 90% 后(5/5 元)竞争力大增
- 免费模型:智谱 GLM-4-Flash 和腾讯 Hunyuan-lite 零成本可用,是开发者的"起跑线"
- Coding Plan:智谱和 Kimi 的订阅套餐最适合编程场景,小米的 Credit 体系更灵活
- 涨价预警:腾讯已率先涨价,其他厂商可能跟进。如果你正在犹豫,现在上车比等降价更明智
数据来源:各厂商官方定价页面,截至 2026 年 4 月。价格可能随时变动,请以官网最新数据为准。