快讯

OpenAI、Anthropic与谷歌通过Frontier Model Forum共享对抗性蒸馏情报

OpenAI、Anthropic与谷歌正通过2023年与微软共同创立的行业非营利组织Frontier Model Forum共享信息,联合检测违反服务条款的对抗性蒸馏行为。该技术利用前沿模型输出训练新模型,以较低成本复制能力。

OpenAI确认参与此合作,并援引此前提交美国国会的备忘录,批评深度求索试图“搭便车”获取OpenAI及其他美国前沿实验室的能力。美国政府官员估计,未经授权的蒸馏每年给硅谷实验室造成数十亿美元利润损失。谷歌、Anthropic和Frontier Model Forum拒绝置评。

来源:公开信息

ABAB AI 解读

三家前沿实验室通过Frontier Model Forum的协作,借鉴网络安全行业共享威胁情报的模式,将对抗性蒸馏从单个公司防御转向集体监测。这种行为虽在实验室内部用于创建高效小模型,但第三方大规模应用会绕过安全措施并侵蚀商业模式,凸显AI能力提取在黑箱API访问下的制度漏洞。

这一合作置于美中AI竞争的长期结构中,OpenAI对深度求索的指控反映出能力差距下,低成本复制技术对领先者研发投资的稀释效应。特朗普政府AI行动计划中呼吁建立信息共享与分析中心的提议,为此类行业协作提供了政策土壤,却也暴露反垄断法对可共享边界的不确定性,限制了情报深度。

从产业与权力分配看,此趋势加速价值向拥有原始训练数据、算力与安全基础设施的少数实验室集中,同时推动全球AI治理从开放创新向防护性标准迁移。未经授权蒸馏的规模化不仅影响短期利润,更考验前沿模型在技术扩散中的定价权与国家安全定位,促使私有实验室在制度约束下重新校准开放与保护的平衡。

AIGoogleOpenAI

来源

·
·
1 分钟阅读
·3 天前
分享: