程序员狂喜!首款“实时编程”模型Codex-Spark来了,每秒1000 Token!

0 阅读3分钟

一觉醒来,OpenAI又开始深夜炸场了!

这次OpenAI直接甩出了另外一款模型——GPT-5.3-Codex-Spark

这模型没别的花哨功能,主打就是一个字:快!极致的快!

(很难不让人怀疑是在贴脸开大,对标隔壁Claude Opus 4.6的快速模式~)

据官方介绍,这是OpenAI首个专门为“实时协作”设计的代码模型。

到底有多快?官方实测数据显示,Spark的生成速度超过了每秒1000个Token

之前大家诟病Codex最多的就是“太慢了”,跟隔壁Claude Code比起来差远了。

虽然前段时间优化过一波,但这次OpenAI显然不满足,干脆直接推出一款速度超级快的模型GPT-5.3-Codex-Spark

为了让速度变快,OpenAI这次可是下了血本,直接找来了一个强力外援,芯片初创巨头Cerebras

这次的Spark模型,并没有跑在大家熟悉的英伟达GPU上,而是跑在Cerebras的Wafer Scale Engine 3(WSE-3)上。

这是目前已知地表最强的晶圆级芯片,专为超低延迟推理设计。

除了硬件硬核,OpenAI在软件层面也进行了重构

端到端延迟优化: 引入了持久化WebSocket连接,让客户端和服务器的往返开销降低了80%

首字响应: 第一个Token出现的时间缩短了50%

很多朋友可能会担心:速度这么快,模型是不是变蠢了

还真没有。

虽然Spark是从GPT-5.3-Codex的精简版,拥有128k上下文,但在写代码这件事上,它依然是个高手。

在衡量智能体软件工程能力的SWE-Bench ProTerminal-Bench 2.0两大权威榜单中,Spark的表现依然强悍。

虽然官方吹得很猛,但国外的开发者社区(X平台)已经吵翻天了。

一部分实战派开发者表示:“真香!

对于日常的脚本编写和Debug,这种无感延迟简直是生产力革命。

但也有不少冷静派网友泼了一盆冷水:

速度快固然好,但如果生成的是一堆‘高速垃圾’有什么用? 我们更关心的是深度思考能力,而不是每秒吐出多少个字符。”

还有用户直言:“OpenAI能不能别整这些花里胡哨的?能不能放过GPT-4o(明天GPT-4o就正式下线了)

OpenAI这次发布Codex-Spark,其实释放了一个很明显的信号:未来的AI编程将彻底分化为两种模式。

深度模式(Deep Think): 交给GPT-5.3-Codex这种大模型,让它花几小时去解决复杂的系统架构设计。

快速模式(Real-time): 交给Codex-Spark,主瞬间反馈,负责日常的Coding和Debug。

目前,ChatGPT Pro 用户已经可以在Codex App、CLI或者VS Code插件中抢先体验了,感兴趣的可以去试玩一番。

相关阅读:

国内首个订阅 ChatGPT Pro 的平台来了:一文看懂如何开通ChatGPT Pro