
IT之家2月13日消息,Cerebras与OpenAI宣布推出最新的GPT-5.3-Codex-Spark模型,主打实时编程。这也是OpenAI与Cerebras合作的首个公开发布成果。

据介绍,Codex-Spark主要面向对交互速度要求极高的实时软件开发场景,可实现超1000tokens/s的推理速度,从而实现近乎即时响应的编码反馈。
OpenAI在公告中指出,近年来“agenticcoding”正逐渐改变软件开发方式,机器能够在较少人工监督下持续工作数小时甚至数天。但这种模式也可能带来新的问题,包括开发者等待时间变长、对过程的掌控感降低。
OpenAI表示,软件开发本质上是迭代过程,需要开发者在过程中不断掌控方向、决定审美与决策,因此Codex-Spark被设计为与Codex进行实时协作的模型,强调“快速、响应及时、可引导”,让开发者保持在工作中的主导位置。
从定位上看,Codex-Spark被描述为“具备高度能力的小模型”,主要针对快速推理场景进行了优化。OpenAI称,在SWE-BenchPro、Terminal-Bench2.0等软件工程基准测试上,Codex-Spark在完成任务耗时显著缩短的同时,能够给出比GPT-5.1-Codex-mini更好的回答。
在具体能力方面,OpenAI强调Codex-Spark擅长进行精确代码修改、计划调整,并能围绕代码库进行上下文问答。官方还提到,该模型适用于快速可视化新布局、优化样式,以及测试新的界面变更等工作。
OpenAI同时也对Cerebras硬件能力进行了介绍。据称,Wafer-ScaleEngine具备业内最大的SoC片上内存,可支撑用户实现每秒数千token级别的高速推理,并可扩展到数千套系统,将高速内存容量扩展到多TB级别,以支持万亿参数模型的训练与推理。OpenAI表示,预计在2026年把这种“超高速推理”能力带到更大规模的前沿模型上。
在上线范围方面,OpenAI称Codex-Spark将以研究预览形式向ChatGPTPro用户推送,覆盖Codex应用、CLI以及VSCode扩展,同时API访问将向部分设计合作伙伴逐步开放。
正规配资十大排名提示:文章来自网络,不代表本站观点。