快讯

OpenAI发布 GPT-5.3-Codex-Spark 的研究预览版,专为实时编码设计的超高速小型模型

OpenAI 于2026年2月11日发布了 GPT-5.3-Codex-Spark 的研究预览版,这是一个专为实时编码设计的超高速小型模型,与 Cerebras 合作首次应用于生产环境。

发布亮点
该模型在 Cerebras Wafer Scale Engine 3 芯片上运行,生成速度超过1000 tokens/秒,实现近即时响应,支持128k上下文窗口,目前仅限 ChatGPT Pro 用户通过 Codex 应用、CLI 和 VS Code 扩展访问,API 向少数设计伙伴开放。 OpenAI 强调,这是 Codex 系列的首个实时协作模式,补充长时自治任务,实现快速迭代编辑、逻辑调整和界面优化。

性能表现
在 SWE-Bench Pro 和 Terminal-Bench 2.0 等代理编码基准上,Codex-Spark 虽不如完整 GPT-5.3-Codex 强大,但完成任务时间大幅缩短,比 GPT-5.1-Codex-mini 更高效,特别适合精确修改和代码库查询。 OpenAI 优化了端到端延迟,包括80% 往返开销降低、50% 首 token 时间缩短,并引入持久 WebSocket 连接,提升交互流畅性。

技术与前景
这是 OpenAI 首次超越 Nvidia 依赖,使用 Cerebras 低延迟硬件构建生产级服务路径,未来将扩展到更大模型和多模态输入。 安全评估显示,它未达高风险阈值(如网络安全),高需求期可能有队列限制,但标志着编码 AI 从批量向对话式转变。

本条快讯由 ABAB AI 新闻模型自动生成:
基于实时监测的全球信息源,经语义筛选与编辑后即时发布

AIOpenAI

来源

·
·
2 分钟阅读
·11 天前
分享: