2026 国内 七大 AI 大模型定价全对比

14 阅读18分钟

2026 国内 七大 AI 大模型定价全对比

主要是最近两月AI coding 和 openClaw 的爆火,导致各大厂商的模型使用需求和使用量持续暴涨,出现了抢购、限购潮,各家纷纷涨价(含变相涨价)、限制购买、限频、限场景。

本文数据截至 2026 年 4 月,来源于各厂商官方定价页面及公开信息,价格可能随时变动,请以官网最新数据为准。

大模型 API 的价格战从 2024 年打到 2026 年,已经从"分钱"时代进入了"厘钱"时代。对于开发者和企业来说,选模型不再只是看能力——每百万 Token 省几块钱,年成本可能差出几十万

本文覆盖七家主流国产大模型厂商:智谱 AI(GLM)、稀宇科技(MiniMax)、小米(Mimo)、月之暗面(Kimi)、阿里云(Qwen)、腾讯(混元)、字节跳动(豆包),从 API 按量计费、Coding Plan 订阅套餐、免费额度、资源包方案四个维度做全面拆解。


一、七家厂商主力模型一览

1. 智谱 AI(GLM)

厂商背景:清华 KEG 实验室孵化,国内最早一批大模型创业公司,GLM 系列模型在 SuperBench 评测中安全与智能体维度排名全球第一。目前主要模型 GLM-5.1,GLM-5,GLM-4.7

模型矩阵

模型定位上下文窗口特色
GLM-4-Plus旗舰模型128K综合能力最强,与 GPT-4o、Llama3.1-405B 同级
GLM-4-Long超长文本1M百万级上下文,适合长文档处理
GLM-4-Flash / FlashX免费/极速128K完全免费,支持微调,入门首选
GLM-4-Air轻量版128K成本极低,适合高频低精度场景
GLM-4V-Plus视觉理解8K图像/视频理解
GLM-Z1-Air / Z1-AirX推理模型128K深度推理能力
GLM-5旗舰助理2025 年发布,第一梯队
GLM-5.1最新旗舰2026 年3月发布,SWE-bench 第一梯队

API 按量定价(元/百万 Tokens)

模型输入输出备注
GLM-4-Plus552025 年 4 月直降 90%(原价 50 元/百万 Tokens)
GLM-4-Long11超长文本专用
GLM-4-FlashX0.10.1每亿 Tokens 仅 10 元
GLM-4-Flash免费免费完全免费使用
GLM-4-Air0.60.6
GLM-Z1-Air0.50.5每亿 Tokens 50 元
GLM-Z1-AirX55每亿 Tokens 500 元

注:智谱部分模型不区分输入/输出价格,统一按 Token 总量计费。

Coding Plan 订阅套餐

GLM Coding Plan 是专为 AI 编程场景打造的订阅套餐,支持 Claude Code、Cline、Cursor 等 20+ 编程工具。

套餐月费季费(9 折)年费(7 折)5 小时限额周限额可用模型
Lite¥49¥132¥411~80 prompts~400 promptsGLM-4.7/4.6
Pro¥149¥402¥1,251~400 prompts~2,000 promptsGLM-5/4.7/4.6 全部
Max¥469¥1,266¥3,939~1,600 prompts~8,000 promptsGLM-5/4.7/4.6 全部
  • 每次 prompt 约触发 15-20 次模型调用
  • 调用 GLM-5 消耗 3 倍额度(仅 Pro/Max 可用)
  • MCP 工具:Lite 100 次/月,Pro 1,000 次/月,Max 4,000 次/月
  • 2026 年 2 月涨价 30%,取消首购优惠;每日 10:00 限量补货

免费额度:GLM-4-Flash 完全免费,新用户注册即享体验额度。


2. 稀宇科技(MiniMax)

厂商背景:国内 AI 独角兽,以多模态能力著称,旗下产品"海螺 AI"广受欢迎。MiniMax 是国内最早投入 MoE 架构的厂商之一,语音合成和视频生成能力业界领先。

模型矩阵

模型定位上下文窗口特色
MiniMax-M2.7最新旗舰197K+深度思考 + 高速双版本
MiniMax-M2.5高性能通用197K+支持深度思考
MiniMax-M2.1高性能197K+
MiniMax-M2经典文本197K+
MiniMax-01多模态1M图像分析
MiniMax-M1旗舰推理1M复杂推理、数学
海螺视频(Hailuo)视频生成Hailuo-2.3 系列
语音合成TTSspeech-2.8-hd/turbo

API 按量定价(元/百万 Tokens)

模型输入输出缓存读取缓存写入
MiniMax-M2.72.18.40.422.625
MiniMax-M2.7-highspeed4.216.80.422.625
MiniMax-M2.52.18.40.212.625
MiniMax-M2.5-highspeed4.216.80.212.625
M2-her2.18.4
MiniMax-M2.1(历史)2.18.40.212.625
MiniMax-M2(历史)2.18.40.212.625

注:highspeed 版本为高速模式,输出更快但价格翻倍。

多模态定价

服务价格
语音合成 HD3.5 元/万字符
语音合成 Turbo2 元/万字符
音色设计/快速复刻9.9 元/音色(首次使用时收取)
视频生成(Hailuo-2.3 768P 6s)2 元/视频
视频生成(Hailuo-2.3 1080P 6s)3.5 元/视频
音乐生成1 元/首
图像生成0.025 元/张

免费额度:阿里云百炼渠道提供 100 万 Tokens 免费额度(180 天有效)。


3. 小米(Mimo)

厂商背景:小米 2025 年底推出自研 MiMo 大模型,2026 年 1 月正式开放 API 付费。MiMo-V2-Pro 在 OpenRouter 平台连续霸榜,支持 1M 超长上下文,是国产模型中的新锐力量。

模型矩阵

模型定位上下文窗口最大输出特色
MiMo-V2-Pro旗舰推理1M128K深度思考、函数调用、联网搜索
MiMo-V2-Omni多模态理解256K128K视觉+文本输入、深度思考
MiMo-V2-Flash轻量高效256K64K高吞吐、格式提取、高并发
MiMo-V2-TTS语音合成8K8K限时免费

API 按量定价

国内价格(元/百万 Tokens)

模型输入输入(缓存命中)输出
MiMo-V2-Pro(≤256K)71.4721
MiMo-V2-Pro(256K-1M)142.9442
MiMo-V2-Omni2.940.5614.70
MiMo-V2-Flash0.70.072.1

国际价格(美元/百万 Tokens)

模型输入输入(缓存命中)输出
MiMo-V2-Pro(≤256K)$1.05$0.21$3.15
MiMo-V2-Pro(256K-1M)$2.10$0.42$6.30
MiMo-V2-Omni$0.42$0.08$2.10
MiMo-V2-Flash$0.11$0.01$0.32

Token Plan 订阅套餐(2026 年 4 月推出)

小米采用统一 Credit 点数体系,不同模型消耗 Credit 比例不同。

套餐月费Credits面向
Lite¥390.6 亿轻度开发者
Standard¥992 亿中度开发者
Pro¥3297 亿重度开发者
Max¥65916 亿企业/团队
  • MiMo-V2-Omni 256K 上下文消耗 1x Credit
  • MiMo-V2-Pro 256K 消耗 2x Credit,更长上下文消耗 4x Credit
  • MiMo-V2-TTS 限时免费
  • 购买套餐用户可获得新模型优先内测体验权

免费额度:早期注册用户已收到约 20 元赠送余额。


4. 月之暗面(Kimi)

厂商背景:由清华大学校友创立,Kimi 是国内最早以长上下文为卖点的大模型产品。K2 系列 MoE 模型总参数 1T、激活参数 32B,在代码和 Agent 能力上表现突出。最新 K2.6 模型已上线。

模型矩阵

模型定位上下文窗口特色
kimi-k2.6最新旗舰256K多模态(视觉+文本),深度思考,指令遵循与自我纠错
kimi-k2-0905-previewK2 旗舰256K超强 Agentic Coding
kimi-k2-turbo-previewK2 高速版256K输出速度 60-100 tok/s
kimi-k2-thinkingK2 推理版256K深度推理
kimi-k2-thinking-turboK2 推理高速版256K深度推理+极速
moonshot-v1-8k经典轻量8K低成本入门
moonshot-v1-32k经典中量32K中等上下文
moonshot-v1-128k经典长文本128K超长上下文

注:kimi-k2 系列将于 2026 年 5 月 25 日下线,建议迁移至 kimi-k2.6。

API 按量定价(元/百万 Tokens)

Kimi K2.6

模型输入(缓存命中)输入(缓存未命中)输出上下文
kimi-k2.6¥1.10¥6.50¥27.00256K

Kimi K2

模型输入(缓存命中)输入(缓存未命中)输出上下文
kimi-k2-0905-preview¥1.00¥4.00¥16.00256K
kimi-k2-0711-preview¥1.00¥4.00¥16.00128K
kimi-k2-turbo-preview¥1.00¥8.00¥58.00256K
kimi-k2-thinking¥1.00¥4.00¥16.00256K
kimi-k2-thinking-turbo¥1.00¥8.00¥58.00256K

Moonshot V1

模型输入输出上下文
moonshot-v1-8k¥2.00¥10.008K
moonshot-v1-32k¥5.00¥20.0032K
moonshot-v1-128k¥10.00¥30.00128K
moonshot-v1-8k-vision-preview¥2.00¥10.008K
moonshot-v1-32k-vision-preview¥5.00¥20.0032K
moonshot-v1-128k-vision-preview¥10.00¥30.00128K

Code Plan 订阅套餐(Kimi Code)

套餐月费年费5 小时配额特色
Andante¥49¥468(月均¥39)~300-1,200 次调用Kimi K2.5 旗舰模型,AI 建站/文档/PPT 权益
Moderato¥99¥948(月均¥79)更大配额多设备登录共享,支持 Kimi CLI/Claude Code/Roo Code
Allegretto¥199更高配额
Allegro¥699最高配额
  • 额度每 7 天刷新,未用完不累积
  • 最大并发 30
  • 限时活动:所有套餐额度扩容 3 倍
  • 年付 Andante 省 ¥120,Moderato 省 ¥240

阶梯权益:基于累计充值金额动态提升限速等级。


5. 阿里云(Qwen/千问)

厂商背景:阿里云百炼平台是国内最大的 MaaS 平台之一,千问系列模型已迭代至 Qwen3.6,开源生态极为活跃。百炼不仅提供自研模型,还集成了 MiniMax、智谱等第三方模型。

模型矩阵(中国内地)

模型定位上下文窗口特色
qwen3.6-max-preview旗舰预览256K最新最强
qwen3-max旗舰128K-252K阶梯定价,按上下文长度分段
qwen3.5-plus高性能通用1M思考模式与非思考模式
qwen3.5-omni-plus多模态旗舰支持视觉、语音
qwen3.5-omni-flash多模态轻量低成本多模态
qwen3-omni-flash多模态快速实时语音
qwen-long超长文本1M长文档专用
qwen3-32b开源中量开源自部署
qwen3-8b开源轻量开源自部署

API 按量定价(元/百万 Tokens,中国内地)

千问 Max(旗舰)

模型输入长度输入输出
qwen3-max0-32K2.510
qwen3-max32K-128K416
qwen3-max128K-252K728

千问 Plus(通用主力)

模型输入长度输入输出
qwen3.5-plus0-128K0.84.8
qwen3.5-plus128K-256K212
qwen3.5-plus256K-1M424

思考模式输出价格与非思考模式相同;Batch 调用享 50% 折扣。

千问 Flash / 轻量系列

模型输入输出
qwen3.6-flash0.3672.936
qwen-turbo0.30.6
qwen-long0.52

开源模型部署定价

模型价格
qwen3-32b0.04 元/千Token
qwen3-8b0.006 元/千Token
qwen3-1.7b0.0045 元/千Token

多模态定价

模型文本输入音频输入图片/视频输入文本输出
qwen3-omni-flash1.8 元/M15.8 元/M3.3 元/M6.9 元/M

免费额度:新用户开通百炼可领取超 7000 万免费 Tokens,多数模型开通后 90 天内各 100 万 Token 免费额度。

资源包方案:阿里云百炼提供 Token 资源包/抵扣包,支持预付费模式,价格优于按量后付费。


6. 腾讯(混元 Hunyuan)

厂商背景:腾讯混元大模型依托腾讯云基础设施,具备强大的中文创作和逻辑推理能力。2026 年 3-4 月,腾讯云经历两轮调价:模型 API 价格大幅上调(如 HY 2.0 Instruct 输入价涨幅 463%),AI 算力刊例价上调 5%。

模型矩阵

模型定位上下文窗口特色
Tencent HY 2.0 Think深度推理旗舰128K分段定价(32K/128K)
Tencent HY 2.0 Instruct指令遵循旗舰128K分段定价
Hunyuan-T1通用主力256K性价比首选
Hunyuan-TurboS高速版128K极速响应
Hunyuan-a13b轻量版低成本
Hunyuan-large-role长角色扮演角色扮演专用
Hunyuan-translation翻译模型专业翻译
Tencent HY Vision 1.5视觉理解图像理解
Hunyuan-lite免费版完全免费使用

API 按量定价(元/百万 Tokens)

模型输入输出备注
HY 2.0 Think(0,32K]3.97515.9高端推理
HY 2.0 Think(32K,128K]5.321.2超长上下文加价
HY 2.0 Instruct(0,32K]3.187.95
HY 2.0 Instruct(32K,128K]4.50511.13
Hunyuan-T114
Hunyuan-TurboS0.82性价比高
Hunyuan-a13b0.52入门之选
Hunyuan-large-role2.49.6
Hunyuan-translation1.23.6
Hunyuan-translation-lite13
HY Vision 1.539视觉
Hunyuan-turbos-vision39视觉
Hunyuan-t1-vision39视觉
Hunyuan-embedding0.70.7向量模型
Hunyuan-lite免费免费

预付费资源包

规格价格
1 万点¥100
10 万点¥950
100 万点¥9,000
1000 万点¥85,000
1 亿点¥800,000
  • 抵扣系数:如 Hunyuan-TurboS 输入 0.08 点/千Tokens,输出 0.2 点/千Tokens
  • 并发增购:¥800/并发/月,默认 5 个并发

免费额度:首次开通即享 100 万 Tokens 免费资源包(1 年有效),Hunyuan-lite 完全免费。

⚠️ 重要提示:2026 年 3 月起,腾讯云结束了 GLM 5、MiniMax 2.5、Kimi 2.5 等第三方模型的限时免费公测,并大幅上调混元自有模型价格。使用前务必确认最新价格。


7. 字节跳动(豆包 Doubao)

厂商背景:字节跳动通过火山引擎(Volcengine)对外提供豆包大模型服务。豆包前身"云雀",是国内首批通过算法备案的大模型之一。Seed 2.0 系列覆盖通用、代码、轻量、极小四档,定价极具攻击性。

模型矩阵

模型定位上下文窗口特色
Doubao-Seed-2.0-Pro通用旗舰128K/256K复杂推理、Agent 任务(全球第三,仅次于 Claude Sonnet 4.6 和 GPT-5.4)
Doubao-Seed-2.0-Code代码专精128KPython/JS 生成接近 Claude Sonnet 4.6 水平,价格仅 1/5
Doubao-Seed-2.0-Lite轻量版64K分类/提取等高吞吐场景
Doubao-Seed-2.0-Mini极小版32K边缘/移动端部署
Doubao-Seed-1.8上一代旗舰较低价
Doubao-Seed-1.6性价比版入门
Doubao-Seed-1.6-Lite极轻量超低成本
Doubao-Seed-1.6-Flash极速版输入极低
Doubao-Seed-Vision视觉理解图像理解

API 按量定价(元/百万 Tokens)

Seed 2.0 系列(最新)

模型输入输出缓存Batch 折扣上下文
Doubao-Seed-2.0-Pro3.2160.845%128K
Doubao-Seed-2.0-Code3.2160.845%128K
Doubao-Seed-2.0-Lite0.63.660.1550%64K
Doubao-Seed-2.0-Mini0.220.0550%32K

美元价:Pro 输入 0.43/M,输出0.43/M,输出 2.15/M;Lite 输入 0.14/M,输出0.14/M,输出 0.71/M。

Seed 1.x 系列(过渡)

模型输入输出
Doubao-Seed-1.80.82.0
Doubao-Seed-1.60.30.6
Doubao-Seed-1.6-Lite0.150.3
Doubao-Seed-1.6-Flash0.0750.75
Doubao-Seed-Vision0.44.0

资源包方案

规格价格折算单价
1000 万 Token 包¥19.9新客专享,约标准价 4 折
1 亿 Token 包¥301
5 亿 Token 包¥1,339

语音模型另计:播客输入 120 元/M Tokens,音频输出 300 元/M Tokens。

免费额度:新客首购 1000 万 Token 包仅 ¥19.9(约标准价 4 折)。


二、旗舰模型定价横评

以下为各厂商最强/最贵模型的输入/输出价格对比(元/百万 Tokens):

厂商旗舰模型输入输出上下文价格特点
智谱GLM-4-Plus55128K不区分输入输出,统一 5 元
MiniMaxMiniMax-M2.72.18.4197K+缓存读取仅 0.42
小米MiMo-V2-Pro7211M1M 上下文加价至 14/42
Kimikimi-k2.66.527256K输出最贵,缓存命中 1.1
阿里qwen3-max2.510252K阶梯定价,低区间极便宜
腾讯HY 2.0 Think3.97515.9128K分段加价,高端最贵
字节Seed-2.0-Pro3.216128K有缓存和 Batch 折扣

关键发现

  • 最便宜旗舰:阿里 qwen3-max(0-32K 档)输入 2.5 元,输出 10 元,综合最低
  • 最贵旗舰:Kimi K2.6 输出 27 元/百万 Tokens,但缓存命中仅 1.1 元
  • 1M 超长上下文:小米 MiMo-V2-Pro 和阿里 qwen3.5-plus 都支持百万级上下文,但小米加价幅度更大(2-3 倍)
  • 缓存机制:Kimi 和 MiniMax 缓存命中价格极低(1.1 元和 0.42 元),适合重复上下文场景

三、轻量/免费模型定价横评

对于预算有限或调用量大的场景,轻量模型是核心选择:

厂商轻量模型输入输出上下文是否免费
智谱GLM-4-Flash00128K✅ 完全免费
智谱GLM-4-FlashX0.10.1128K❌ 但极便宜
智谱GLM-4-Air0.60.6128K
MiniMaxMiniMax-M2.52.18.4197K+
小米MiMo-V2-Flash0.72.1256K❌ 但缓存命中仅 0.07
阿里qwen-turbo0.30.6❌ 但极低
阿里qwen-long0.521M❌ 长文本专用
腾讯Hunyuan-lite00✅ 完全免费
腾讯Hunyuan-TurboS0.82128K
腾讯Hunyuan-a13b0.52
字节Seed-2.0-Mini0.2232K
字节Seed-2.0-Lite0.63.6664K
字节Seed-1.6-Flash0.0750.75❌ 全场最低输入价

关键发现

  • 完全免费模型:智谱 GLM-4-Flash 和腾讯 Hunyuan-lite,零成本起步
  • 最低输入价:字节 Seed-1.6-Flash 输入仅 0.075 元/百万 Tokens
  • 最佳免费起步路径:智谱 GLM-4-Flash(128K 上下文、支持微调、免费)> 腾讯 Hunyuan-lite
  • 长文本性价比王:阿里 qwen-long(0.5 元输入、1M 上下文)

四、Coding Plan 订阅套餐横评

对于 AI 编程场景,各厂商推出的订阅套餐比按量计费更划算:

厂商套餐名月费核心模型用量/5h用量/周特色
智谱Lite¥49GLM-4.7/4.6~80 prompts~400 promptsMCP 100 次/月
智谱Pro¥149GLM-5/4.7/4.6~400 prompts~2,000 promptsMCP 1,000 次/月,视觉理解
智谱Max¥469GLM-5/4.7/4.6~1,600 prompts~8,000 promptsMCP 4,000 次/月,优先保障
KimiAndante¥49K2.5~300-1,200 调用7 天周期刷新AI 建站/文档/PPT 权益
KimiModerato¥99K2.5更大配额7 天周期刷新多设备共享,支持 Claude Code
KimiAllegretto¥199K2.5更高配额
KimiAllegro¥699K2.5最高配额
小米Lite¥39MiMo-V2 全系列0.6 亿 Credits
小米Standard¥99MiMo-V2 全系列2 亿 Credits
小米Pro¥329MiMo-V2 全系列7 亿 Credits
小米Max¥659MiMo-V2 全系列16 亿 Credits

腾讯混元、阿里 Qwen、字节豆包、MiniMax 目前未推出 Coding Plan 订阅套餐。

选型建议

  • 轻度编程(偶尔写脚本):智谱 Lite ¥49 或 Kimi Andante ¥49 或小米 Lite ¥39
  • 日常编码 + Agent 工具:智谱 Pro ¥149 或 Kimi Moderato ¥99
  • 重度编程 + 多项目并发:智谱 Max ¥469 或 Kimi Allegro ¥699
  • 预算极致压缩:小米 Standard ¥99(2 亿 Credits 灵活度高)

五、免费额度与新人福利汇总

厂商免费额度有效期获取方式
智谱GLM-4-Flash 完全免费 + 体验额度永久/长期注册即用
MiniMax100 万 Tokens(百炼渠道)180 天申请通过后发放
小米约 20 元赠送余额早期注册用户
Kimi文件抽取/存储接口限时免费限时自动享受
阿里超 7000 万免费 Tokens90 天开通百炼自动领取
腾讯100 万 Tokens 免费资源包 + Hunyuan-lite 免费1 年首次开通自动发放
字节新客 1000 万 Token 包 ¥19.93 个月首次购买

免费模型一览

  • 智谱 GLM-4-Flash:完全免费,128K 上下文,支持微调
  • 腾讯 Hunyuan-lite:完全免费
  • 小米 MiMo-V2-TTS:语音合成限时免费
  • MiniMax abab6.5s(百炼渠道):限时免费
  • 阿里千问部分开源模型:限时免费体验

六、行业趋势与选型策略

价格趋势

  1. 价格战从"分"打到"厘":2024 年各厂商还在"元/百万 Tokens"量级竞争,2025-2026 年已进入"0.1 元/百万 Tokens"量级,豆包 Seed-1.6-Flash 输入价仅 0.075 元
  2. 涨价信号出现:腾讯 2026 年 3-4 月两轮涨价(模型 API 涨幅高达 463%,算力涨 5%),结束了持续两年的单边降价
  3. 缓存机制成标配:Kimi、MiniMax、小米、阿里均推出上下文缓存,缓存命中价格可低至 0.07-1.1 元/百万 Tokens
  4. 阶梯定价普及:阿里 qwen3-max、腾讯 HY 2.0、小米 MiMo-V2-Pro 均按上下文长度分段计价,短上下文更便宜

选型策略

场景推荐方案理由
零成本试水智谱 GLM-4-Flash / 腾讯 Hunyuan-lite完全免费,无门槛
大规模高并发字节 Seed-1.6-Flash / 阿里 qwen-turbo输入价 0.075-0.3 元,支持高 TPM
超长文本处理智谱 GLM-4-Long / 阿里 qwen-long / 小米 MiMo-V2-Pro1M 上下文,价格 0.5-7 元
代码生成/编程字节 Seed-2.0-Code / 智谱 Coding Plan Pro代码专精模型 + 订阅套餐
多模态应用阿里 qwen3-omni-flash / 小米 MiMo-V2-Omni全模态覆盖,价格合理
语音/视频生成MiniMax 语音+视频行业最强多模态,语音 2 元/万字符,视频 2 元/个起
深度推理Kimi K2.6 / 智谱 GLM-Z1-AirX / 腾讯 HY 2.0 Think旗舰推理模型
企业合规阿里百炼 / 腾讯混元 / 智谱 GLM大厂合规保障 + 私有化部署

七、总结

2026 年的国内大模型市场,呈现出"旗舰降价、轻量免费、订阅兴起"三大趋势:

  • 旗舰模型:阿里 qwen3-max 综合性价比最高(2.5/10 元),智谱 GLM-4-Plus 降价 90% 后(5/5 元)竞争力大增
  • 免费模型:智谱 GLM-4-Flash 和腾讯 Hunyuan-lite 零成本可用,是开发者的"起跑线"
  • Coding Plan:智谱和 Kimi 的订阅套餐最适合编程场景,小米的 Credit 体系更灵活
  • 涨价预警:腾讯已率先涨价,其他厂商可能跟进。如果你正在犹豫,现在上车比等降价更明智

数据来源:各厂商官方定价页面,截至 2026 年 4 月。价格可能随时变动,请以官网最新数据为准。