快讯
OpenAI开放Safety Fellowship申请支持外部AI安全与对齐研究
OpenAI宣布开放Safety Fellowship试点项目申请,面向外部研究者、工程师和从业者,为期约五个月,从2026年9月14日至2027年2月5日,重点方向包括安全评估、伦理、鲁棒性、可扩展缓解措施、隐私保护型安全方法、Agent监督和高危滥用场景等。
入选者将获得月度津贴、算力支持和OpenAI导师指导,工作地点可选伯克利Constellation共享空间或远程。项目结束需产出论文、基准测试集或数据集等成果。申请面向计算机科学、社会科学、网络安全、隐私、人机交互等多学科背景,需提交推荐信,5月3日截止,7月25日前通知结果。
来源:公开信息
ABAB AI 解读
OpenAI推出Safety Fellowship标志着前沿AI实验室开始系统性外包部分安全与对齐研究,通过外部人才补充内部资源,同时保持对核心系统的控制。项目明确不提供内部系统访问权限,仅给予API积分和导师指导,这种设计降低了技术泄露风险,却也限制了研究深度,反映出公司在平衡开放协作与安全边界时的制度约束。
这一举措置于AI产业长期结构变化中,类似传统科技公司在成熟阶段通过fellowship或residency程序培养生态人才,同时将部分前沿问题外部化以分散研究成本和责任。优先领域覆盖从评估到Agent监督的宽谱,显示安全议题正从早期对齐理论转向可部署的鲁棒性和滥用缓解,应对模型能力快速迭代带来的新风险。
从制度与权力分配视角看,该项目强化了OpenAI在AI安全话语权中的枢纽地位,通过资助外部研究引导议程方向,同时为潜在人才池建立连接。在全球AI治理讨论加剧的背景下,此类外部资助机制可能加速安全技术的标准化,却也凸显了私有实验室在定义“高危场景”和“可扩展缓解”时的主导作用,推动资源向具备跨学科背景的研究者集中。
OpenAI
来源
··
1 分钟阅读
·3 天前