一觉醒来,OpenAI又开始深夜炸场了!
这次OpenAI直接甩出了另外一款模型——GPT-5.3-Codex-Spark。
这模型没别的花哨功能,主打就是一个字:快!极致的快!
(很难不让人怀疑是在贴脸开大,对标隔壁Claude Opus 4.6的快速模式~)
据官方介绍,这是OpenAI首个专门为“实时协作”设计的代码模型。
到底有多快?官方实测数据显示,Spark的生成速度超过了每秒1000个Token。
之前大家诟病Codex最多的就是“太慢了”,跟隔壁Claude Code比起来差远了。
虽然前段时间优化过一波,但这次OpenAI显然不满足,干脆直接推出一款速度超级快的模型GPT-5.3-Codex-Spark。
为了让速度变快,OpenAI这次可是下了血本,直接找来了一个强力外援,芯片初创巨头Cerebras。
这次的Spark模型,并没有跑在大家熟悉的英伟达GPU上,而是跑在Cerebras的Wafer Scale Engine 3(WSE-3)上。
这是目前已知地表最强的晶圆级芯片,专为超低延迟推理设计。
除了硬件硬核,OpenAI在软件层面也进行了重构
端到端延迟优化: 引入了持久化WebSocket连接,让客户端和服务器的往返开销降低了80% 。
首字响应: 第一个Token出现的时间缩短了50% 。
很多朋友可能会担心:速度这么快,模型是不是变蠢了
还真没有。
虽然Spark是从GPT-5.3-Codex的精简版,拥有128k上下文,但在写代码这件事上,它依然是个高手。
在衡量智能体软件工程能力的SWE-Bench Pro和Terminal-Bench 2.0两大权威榜单中,Spark的表现依然强悍。
虽然官方吹得很猛,但国外的开发者社区(X平台)已经吵翻天了。
一部分实战派开发者表示:“真香!
对于日常的脚本编写和Debug,这种无感延迟简直是生产力革命。
但也有不少冷静派网友泼了一盆冷水:
“速度快固然好,但如果生成的是一堆‘高速垃圾’有什么用? 我们更关心的是深度思考能力,而不是每秒吐出多少个字符。”
还有用户直言:“OpenAI能不能别整这些花里胡哨的?能不能放过GPT-4o(明天GPT-4o就正式下线了)
OpenAI这次发布Codex-Spark,其实释放了一个很明显的信号:未来的AI编程将彻底分化为两种模式。
深度模式(Deep Think): 交给GPT-5.3-Codex这种大模型,让它花几小时去解决复杂的系统架构设计。
快速模式(Real-time): 交给Codex-Spark,主瞬间反馈,负责日常的Coding和Debug。
目前,ChatGPT Pro 用户已经可以在Codex App、CLI或者VS Code插件中抢先体验了,感兴趣的可以去试玩一番。
相关阅读: