快讯
OpenAI CEO:下一代AI模型对生物与网络攻击的威胁已从理论逼近现实
OpenAI首席执行官山姆·奥特曼在一次访谈中警告,下一代AI模型有可能被恐怖组织等非国家行为体滥用,用于设计新型病原体,他认为“这已经不再是理论上的假设,或者说很快就不会再是”。他同时强调,今年很可能出现一场“撼动世界的网络攻击”,并指出AI正在显著提升攻击者在生物安全与关键基础设施方向的攻击能力。
奥特曼表示,当前前沿模型在生物学知识建模与代码生成上的进步,已达到“帮助无经验者理解并操作复杂生物威胁”的水平,因此OpenAI必须在模型安全、访问控制与“可信访问”计划上投入资源,以降低系统被大规模滥用的风险。他同时呼吁社会在关键基础设施、金融系统与电力网络方面加强“韧性”而非仅依赖预防。
来源:公开信息
ABAB AI 解读
奥特曼的警告实质是“双重威胁结构”的公开认证:在AI能力提升的同时,生物学与网络安全之间的技术边界正在被AI抹平。当一个模型既能生成复杂代码、网络漏洞利用方案,又能解析基因序列与实验设计,传统“网络攻防”与“生物安全”两个领域将被同一技术层贯穿。
从战略结构看,这一判断标志着AI已从“效率工具”转向“威胁放大器”。在冷战及之后的“化学‑生物‑核三元武器逻辑”之外,社会正面对“AI‑网络‑生物”的新三位一体风险框架。攻击者只需获得足够算力与开放模型,即可在缺乏传统实验室与物理基础设施的条件下,获得接近“准专业”的规划设计能力。
在制度层面,奥特曼强调“韧性而非预防”,反映了政策制定者对“可控性崩塌”的默许:他们不再相信能彻底封锁AI模型,而是预设攻击必然发生,任务转为“在系统被击穿后如何不崩溃”。这正是数字时代安全观的底层转向——AI既是防御武器,也是攻防博弈的元层,而国家与资本必须在制度与资本结构上对该框架做出结构性重配。
AIOpenAI
来源
··
1 分钟阅读
·7 天前