
这个模型叫 GPT-5.3-Codex-Spark,是 GPT-5.3-Codex 的轻量版,专为实时编程设计。
来看对比视频:
而 Sam Altman 本人在发布前就发出了预告:"It sparks joy for me"。

而让它跑这么快,秘密并非 Nvidia 的 GPU,而是 Cerebras 的晶圆级芯片。
快
传统的 AI 推理,是把模型分散到一堆 GPU 上跑,芯片之间需要频繁通信,通信就是延迟。
而 Cerebras 的 Wafer Scale Engine 3(WSE-3)走了一条完全不同的路:把整个芯片做成一整块晶圆。
而这块芯片有多大呢?
大概一个餐盘那么大。
并且,有4 万亿个晶体管。
它拥有目前所有 AI 处理器中最大的片上内存,直接消除了多芯片之间的通信开销。模型就在一块芯片上跑,不需要在芯片之间来回搬运数据。
结果就是:推理速度直接拉到每秒 1000+ token,比传统 GPU 推理快了约 15 倍。
这对于编程场景而言就是,你打字的时刻,模型已经同步写完了。
接近实时的反馈,代码就像是从指尖流出来的。
不只是快
Codex-Spark 不只是一个“跑得快的小模型”。


在 SWE-Bench Pro 和 Terminal-Bench 2.0 这两个主流的软件工程 Agent 基准测试上,Codex-Spark 的表现超过了 GPT-5.1-Codex-mini,而且完成任务的时间只有后者的零头。
又快又强!
OpenAI 对它的定位是:这是一个日常编程的生产力工具,用来做快速原型、实时协作、即时迭代。
你可以在它写代码的过程中随时打断、重新指挥方向,它几乎是瞬间响应。
而更大、更强的 GPT-5.3-Codex 则负责处理那些需要深度推理和长时间执行的复杂任务。
OpenAI 的设想是,让两个模型互补配合:Spark 负责快,Codex 负责深。
OpenAI 芯片野心
这是 OpenAI 与 Cerebras 合作的第一个里程碑。
今年 1 月,OpenAI 宣布了与 Cerebras 的多年合作计划,价值超过 100 亿美元。
而 Cerebras 也刚完成了超过 10 亿美元的融资,估值约 230 亿美元,正在考虑 IPO。
这次合作的意义,不只是一个新模型。
这是 OpenAI 在推理层面首次大规模跳出英伟达生态。
过去,几乎所有大模型公司的推理都跑在 Nvidia GPU 上,而 Codex-Spark 证明了一件事:对于特定场景(比如编程),专用芯片可以把体验拉到一个完全不同的量级。
Cerebras CTO 兼联合创始人 Sean Lie 说:
最让我们兴奋的,是与 OpenAI 和开发者社区一起探索快速推理能带来什么——新的交互模式、新的使用场景、根本不同的模型体验。这个预览版只是个开始。

Cerebras 表示,2026 年内会把这种超快推理能力扩展到最大的前沿模型上。
如何使用
目前 GPT-5.3-Codex-Spark 以 research preview 形式发布,面向 ChatGPT Pro 用户开放,可以在以下渠道使用:
-
Codex 应用
-
CLI 命令行工具
-
VS Code 插件

Sam Altman 坦言,发布时还有一些限制,但团队会「rapidly improve」。

