OpenAI推出GPT‑5.4‑Cyber,这是基于GPT‑5.4专门针对网络安全防御任务微调的变体
OpenAI推出GPT‑5.4‑Cyber,这是基于GPT‑5.4专门针对网络安全防御任务微调的变体,其核心特点是“有意降低对双用安全任务的拒绝边界”,允许在二进制逆向分析、漏洞挖掘与恶意代码检测等场景下执行传统通用模型会拒绝的请求。企业与安全工程师可在“可信访问‑网络安全(Trusted Access for Cyber)”计划下申请,由OpenAI对用户主体进行验证,初始部署仅开放给少数受控的安全厂商、组织与研究机构,企业团队则通过OpenAI直接接入高权限层级。
OpenAI将GPT‑5.4整体归类为“高”网络风险能力,旗下Codex安全工具已助力2026年修复逾3000个关键漏洞。公司表示,网络风险本身在AI出现前就已加速,攻击者早已使用通用模型,防御方必须能获得“同一级前沿能力”,否则在速度与覆盖面上注定落后。
来源:公开信息
ABAB AI 解读
GPT‑5.4‑Cyber的出现,标志着AI平台正式从“通用拒绝”走向“分权许可”结构。在安全领域,大多数攻击与防御技术本质上都是“双用工具”——同样的漏洞利用技术,可以用于红队评估,也可以用于APT攻击。OpenAI此举在允许专业防御者使用更激进接口的同时,将风险责任下沉到“受控主体”与“受控环境”中,建立起“高风险‑高准入”监管链,而不是简单“一概拒绝”。
从结构上看,这相当于在AI平台内部构建“漏洞实验室层”:普通用户被限制在“简化‑安全”模式,而经过验证的防御者获得“可穿透”能力强的模型,成为“授权渗透者”。这种架构将外部漏洞市场与内部AI系统耦合,使漏洞发现、分析与修补过程在平台监管下完成,而非完全游离到黑市与地下论坛。这既是安全升级,也是一次对“白帽与黑帽边界”的制度性再定义。
长期趋势上,这一模式将推动网络安全从“离散工具”转向“平台化运营”。当大型模型直接处理二进制逆向、自动扫描与补丁建议时,传统SAST、DAST与手动逆向工程将被融入“AI‑安全‑平台”一体流程中,形成“发现‑建模‑防护”的闭环。与此同时,围绕“谁有权使用高风险模型”“谁定义安全边界”“如何防止二次滥用”的博弈,将成为下一代网络战略的核心议题。OpenAI不是在躲避风险,而是在设计风险分层,把网络冲突的主战场从“公开代码”转向“访问权限”。