智谱放大招:GLM-4.5,AI圈的“王炸”还是“搅局者”?

735 阅读10分钟

我是吉米,聚焦解读AI编程|智能体,提供避坑指南🚧与提效秘籍⚡️​

赋能普通人轻松驾驭AI🤖,让AI成为你的职场加速器🚀与人生破局点✨​

AI圈的朋友们,最近是不是感觉有点“卷”不动了?

当你还在为各种模型跑Case、找Case焦头烂额时,智谱AI却突然放了个“王炸”——GLM-4.5系列模型横空出世,瞬间刷爆了朋友圈!

这不是普通的升级,用一个词来形容,那就是“颠覆”!

它不仅是智谱新一代的旗舰模型,更让人惊喜的是,它又双叒叕开源了!

而且,智谱还贴心地送出了50块包月爽玩券(具体领取方式,文末揭晓,别急哈~!)。

这不,第一时间就上手体验了一番,结果嘛……只能说,我“龙马精神”了!

这波操作,直接把Claude干懵了

你知道什么叫降维打击吗?

GLM-4.5的API价格:输入2元/百万tokens,输出8元/百万tokens。

Claude 4 Sonnet呢?输入 3 美金/百万 tokens(约 21.5 元),输出 15 美金/百万 tokens(约 107.4 元)

性能相当,价格却只有人家的零头。

这就犹如开着奔驰,却只需一辆五菱宏光的价格。

目测Claude这次真要坐不住了!!

更绝的是,GLM-4.5-Air版本价格更疯狂:输入0.8元,输出2元。

这价格已便宜到,让同行怀疑智谱是不是在做慈善啦!

7分钟搭建完成「盖洛普优势评测」平台

说到实战能力,我必须分享一个让我跪服的实测。

使用GLM-4.5的全栈开发能力,7分钟内完成了一个简易版「盖洛普优势评测」平台。

全程仅输入了一条Prompt。

创建一个简易的盖洛普评测平台,通过简单且有效的问答在最短的时间内,对参与评测者进行盖洛普分析和解答。

伙伴们可以在z.ai上面体验GLM-4.5的全栈开发能力。

登录z.ai首页(chat.z.ai/),点击「全栈开发」,…](p9-xtjj-sign.byteimg.com/tos-cn-i-73…)

这个全栈开发是有项目空间来存放生成的前后端代码,包含数据库。

目前支持同时存在两个空间(这个空间理论上应该是k8s集群的一个pod,可以随时释放和创建),多了就需要替换。

生成后,点击右上角「发布」,即可完成项目发布并分享链接给好友体验。

伙伴们可登录体验下:https://h04dc6q4tqz1-deploy.space.z.ai/

整个网站实现了盖洛普优势快速评测,根据问卷生成优势解读、综合分析、关键洞察等报告;并支持报告下载和分享好友。

所以,这不是演示,是真正能跑的产品级项目。

当我看到系统界面时,我的第一反应是:这特么就是Vibe Coding应该有的样子啊!

PPT生成能力:可直接秒杀市面产品

还有一个让我印象深刻的功能——AI PPT生成。

最近重刷《斗破苍穹》动漫,所以就顺手让智谱做了一个人物背景介绍PPT,结果出来的效果:很炫酷!

不是那种粗糙的模板拼接,而是:

  • 精准的图片搜索

  • 完美的视觉搭配

  • 专业的排版设计

  • 毫无违和感的内容融合

我当时第一感觉就是,以后如有公开演讲啥的,做PPT就用z.ai了,效果完全碾压市面上的产品。

技术参数背后的"暴力美学"

GLM-4.5的定位非常明确:专为智能体(Agent)应用打造的基座模型。

它原生融合了Agentic、推理、代码,这意味着它在处理复杂任务时,能够展现出惊人的执行力。

GLM-4.5采用混合专家(MoE)架构,包含两个版本:

GLM-4.5:3550亿总参数,320亿激活参数;

GLM-4.5-Air:1060亿总参数,120亿激活参数;

跟Claude4一样是混合推理模型(推理/非推理),两个版本全部在Hugging Face和 ModelScope上开源,并且遵循最宽松的MIT协议。

这个参数配置很有意思,总参数够大保证能力上限,激活参数适中控制成本。

就像是给AI装了一个"智能变速箱",需要的时候全力输出,平时节能运行。

训练数据更是"豪华套餐":

  • 15万亿tokens通用数据预训练

  • 8万亿tokens专业数据精调

  • 强化学习进一步提升

23万亿tokens的数据喂养,这个"营养标准"确实够奢华。

对于智谱这次的新旗舰模型,我只能说,这次,国产模型真的崛起了!

它给我的感觉,尤其是在代码能力上,已经隐隐超越了Claude4。

Claude Code无缝接入:两行代码搞定

最实用的是,GLM-4.5可以完美替代Claude Code的底层模型。

配置超级简单,就两行命令:

export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/anthropic"export ANTHROPIC_AUTH_TOKEN="你的智谱API Key"

瞬间,你的Claude Code就从"烧钱利器"变成了"省钱神器"。

性能不降,成本直降90%,这谁顶得住啊?

下面是喂饭级接入教程:

第一步:准备工作

先安装Node.js: 确保你的电脑上安装了Node.js,版本号需要大于等于18。

可以在终端输入「node -v」查看Node版本号。

然后,登录智谱开放平台(bigmodel.cn)获取apikey。

在API密钥页面创建一个新的apikey,并复制保存好。

API-Key网址:bigmodel.cn/usercenter/…

第二步:安装并配置Claude Code

在终端执行Claude Code安装命令。

npm install -g @anthropic-ai/claude-code

如果遇到部署问题,可以参考我上一篇Claude Code+K2 模型的文章里写的「5分钟配置教程」。

mp.weixin.qq.com/s/\_\_OZ8q2…

然后,配置环境变量,这是最关键的一步。

我们需要让Claude Code把请求发送到智谱的API地址,而不是Anthropic的。

对于Mac/Linux用户:

进入终端执行如下命令

设置智谱的API代理地址

export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/anthropic"

设置你的GLM API Key

export ANTHROPIC_AUTH_TOKEN="你刚刚获取的质谱apikey"

对于Windows用户:

进入PowerShell执行下面的指令

$env:ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/anthropic"$env:ANTHROPIC_AUTH_TOKEN="你刚刚获取的智谱的apikey"

**注意:**这个环境变量只在当前终端窗口生效。

为了永久生效,需要将以上两行命令添加到你的【/.zshrc、/.bash_profile】或 Windows的环境变量设置中。

第三步:启动

配置好后,在终端输入以下命令:

claude --dangerously-skip-permissions

这个方式启动可以在后面跑任务的时候畅通无阻(无需人工确认操作)

下面这里选择「Yes,proceed」

当看到熟悉的输入框,就代表你成功启动了由GLM-4.5驱动的Claude Code!

智谱官方文档接入文档:

网址:docs.bigmodel.cn/cn/guide/de…

可能有朋友会问,没有配置模型,怎么知道接入的是glm-4.5呢?

智谱提供了兼容Anthropic API 的端点:

open.bigmodel.cn/api/anthrop…

这个端点是智谱平台的接口,专门用于配置到各位的Claude Code中。

当Claude Code发起请求时,这个端点会自动将请求转发到智谱的GLM-4.5模型,所以模型这块不用我们管。

🎁 50元包月无限用

智谱还推出了一个让人无法拒绝的优惠活动——50元包月无限使用GLM-4.5。

Claude Code的重度用户都知道,这玩意儿特别费tokens。平时跑个复杂项目,光API费用就得几十块。

现在50块包月无限用,相当于把原来一次使用的成本,变成了一个月的成本。

这哪在做生意,分明就是交个朋友哈~☕️

性能对决:国产首次正面硬刚

在编程能力盲评中,GLM-4.5与Claude 4 Sonnet、Kimi-K2、Qwen3-Coder同台竞技。

结果在52个开发任务上,GLM-4.5表现国内最佳,大部分场景可以平替Claude 4 Sonnet。

更关键的是,智谱把所有测试题目和Agent轨迹全部公开在HuggingFace上,供社区检验。

这种坦荡的做法,在国内厂商中真的很少见。

不藏着掖着,直接亮家底,有多大本事拿出来比划。

混合推理模型:走向AGI的正确姿势

GLM-4.5最值得关注的,是它融合了推理、编程、Agent三大能力。

这不就是OpenAI一直在画的GPT-5饼吗?

奥特曼说要融合o系列、GPT系列和Agent能力,结果一直在跳票。

智谱却悄悄把这事儿做了!

从单点突破到全面融合,这种技术路线的前瞻性,可能比性能数字更有价值。

生成速度:100 tokens/秒的快感

GLM-4.5高速版的生成速度临近100 tokens/秒,这个速度已经快到让人怀疑人生。

什么概念?基本上是你刚想完问题,答案就出来了。

对于需要低延迟、高并发的应用场景,这个速度优势太明显了。

开源策略:真正的技术自信

最让我佩服的,是智谱选择了全面开源,平台也给出了一个极具诱惑力性的API价格。

MIT协议,最宽松的开源许可,这意味着:

  • 商业应用无门槛

  • 二次开发无限制

  • 社区贡献全开放

开源地址:github.com/zai-org/GLM…

这种开源策略,体现了真正的技术自信。

GLM-4.5的发布,标志着国产AI真正进入了"平替时代"。

不再是"能用就行"的将就,而是"更好更便宜"的碾压。

当技术追上来,价格打下去,游戏规则就彻底变了。

各大Agent平台、AI IDE肯定会迅速跟进接入,所有国内AI应用都将迎来一波质的提升。

浪潮才刚刚开始,而我们恰好站在了风口上。