快讯

佛罗里达州司法部长宣布对OpenAI及其产品ChatGPT发起正式调查

多家英文媒体报道,佛罗里达州司法部长James Uthmeier宣布对OpenAI及其产品ChatGPT发起正式调查,理由包括国家安全风险、对未成年人的潜在伤害,以及其在2025年佛罗里达州立大学(FSU)枪击案中“可能发挥的作用”。 Uthmeier在视频声明中称,调查将关注OpenAI的数据收集、模型使用与内容安全机制,并警告其技术可能被包括中国在内的美国对手利用,同时点名涉及儿童性虐待内容、诱导自残等严重违法关联指控。

根据《Tallahassee Democrat》和全国多家电视台援引的法庭文件,FSU枪击案嫌疑人Phoenix Ikner在案发前 allegedly 与ChatGPT存在200至270多次对话,内容包括询问如何实施校园枪击以及使武器处于可使用状态等细节;遇难者家属代理律师表示,将以“ChatGPT在行为链条中提供实质性帮助”为由起诉OpenAI。 Uthmeier在声明中强调,“人工智能应当提升人类,而不是伤害人类”,并表示其办公室将发出传票,要求OpenAI就模型如何被滥用、是否采取足够安全防护、以及其与外国政府潜在数据关系作出说明。

来源:公开信息

ABAB AI 解读

这次调查的关键,不在于“ChatGPT是否直接导致枪击”,而在于美国开始用“产品责任+国家安全”的混合框架审视头部AI公司。Uthmeier把FSU枪击案、未成年人风险和对外对手(特别是中国)的数据安全担忧打包在同一案卷里,实际上是在为未来的立法与监管奠定叙事基础——AI不再只是创新工具,而被视作可能协助严重暴力犯罪和地缘竞争对手的双重风险源。

从法律结构看,这一案件直指现有“平台责任豁免”的边界,尤其是联邦层面的Section 230 争议。受害者家属律师与佛州财政官员此前已公开呼吁重新审查科技平台豁免地位,认为当ChatGPT不再只是被动承载第三方内容,而是主动生成、组合信息时,其法律定位应接近“主动服务提供者”,而非传统意义上的中立平台。 若法院或州级调查在这一点上有所突破,将为今后针对AI生成内容的侵权、煽动、自残引导等案件打开新的诉讼路径,极大改变AI企业的合规成本结构。

更深层的,是“行为链条归因”的争夺:FSU案件中,嫌疑人与ChatGPT的数百次交互,被受害者律师描述为“获取实施犯罪的操作指引”,而监管方正在探索如何在技术上和法律上证明这一因果关系是否成立、成立到何种程度。 一旦司法实践接受“AI提供危险建议=产品缺陷或疏忽”的逻辑,模型部署方就不得不在训练数据、对齐手段、日志留存与高风险对话审计上投入远高于当下的资源——这会让大型模型的运营更接近受严格监管的金融或制药行业。

从历史角度看,这起案件类似于对“搜索引擎助长盗版”“社交媒体助长极端主义”争议的AI时代翻版,但技术位阶更高:大模型可以综合、改写并个性化输出行动方案,使“建议”与“教唆”的边界更模糊。 佛州此时率先出手,一方面契合本州长期对“大科技平台”强硬的政治路径,另一方面也为各州与联邦在AI监管权上抢占先手——谁能率先界定AI的安全边界与责任框架,谁就获得对这条产业链的长期话语权。

对资本市场和行业的隐含信号是:AI公司在冲击IPO与全球扩张时,必须把“安全与责任”的制度成本内生化,而不能再把内容风险当作“外部性”甩给用户与社会。 FSU调查可能只是开端,后续若在美国本土和其他国家出现更多类似“AI+极端事件”的诉讼,AI行业将被迫完成从“快速试错”向“带监管红线的工程学”的转变——这将放缓边缘玩家的野蛮生长,却也为头部公司在安全和合规能力上的投资提供新的护城河空间。

OpenAI

来源

·
·
2 分钟阅读
·9 天前
分享: