Anthropic首席执行官Dario Amodei:模型交付军方后无法被关闭
Anthropic在一份提交至法院的文件中明确表示,一旦其AI模型被部署至美国国防部,其自身将不具备远程控制或关闭这些模型的能力。这一表述直接涉及AI系统在军方场景中的控制权边界问题。
该文件披露背景,是围绕AI安全与责任归属的法律争议。Axios援引相关材料指出,Anthropic的立场意味着模型一旦交付,即转入使用方完全控制,这与当前科技公司对“可控AI”的公开叙述形成明显张力。
类似问题此前已在多家AI公司与政府合作中浮现,包括OpenAI与微软在云部署中的权限划分,以及Palantir等公司在国防数据系统中的控制架构设计,均涉及“谁拥有最终开关”的核心问题。
来源:公开信息
ABAB AI 解读
这条信息的关键不在“技术限制”,而在“控制权转移”。Anthropic的表述本质上是在法律层面确认:AI一旦进入国家机器,其治理权不再属于技术提供方,而属于主权机构。这是从“技术产品”向“基础设施能力”的转变,类似云计算早期从企业IT外包走向国家关键系统的路径。
这一结构变化意味着AI正在进入传统军工复合体的权力框架。历史上,无论是核技术、卫星系统还是互联网基础设施,一旦被纳入国家安全体系,其控制逻辑都会从“商业可控”转向“战略不可逆”。Anthropic的声明,实际上是在提前划清责任边界,避免未来在不可控使用情境中承担法律与伦理责任。
更深层的问题在于“对齐失效”的制度化。当前AI行业强调alignment(对齐),但这一前提默认模型仍在公司控制之内。一旦控制权转移,对齐机制将不再由模型开发者主导,而由使用方定义。这意味着AI行为边界将从“技术规范”转向“权力意志”,这在军事体系中尤为明显。
从金融与产业结构看,这类表态也在重塑AI公司的风险定价模型。无法控制的部署意味着潜在的法律尾部风险被转嫁,同时也意味着政府客户将获得更高等级的“主权级AI能力”。这将加速AI供应链向国家集中,强化头部模型公司的“准军工承包商”属性,而不是传统意义上的软件公司。