快讯

AI 招聘平台 Mercor 确认遭遇网络攻击,导致AI供应链暴露于系统性风险

AI 招聘平台 Mercor 确认遭遇网络攻击,起因源自开源 Python 库 LiteLLM 的供应链被篡改。黑客组织 TeamPCP 曾向 PyPI 上传包含恶意代码的 LiteLLM 版本,窃取系统凭证并建立后门。Mercor 表示自己是“数千家受影响公司之一”,已聘请第三方网络取证团队展开调查。

勒索组织 Lapsus$ 在暗网泄露站点声称对此次攻击负责,宣称已窃取约 4TB 数据,包括代码、数据库及包含视频与身份验证文件的存储桶内容,并展示疑似含有OpenAI、Meta、苹果内部项目结构的样本文件。尽管 Mercor 未证实细节,但安全研究者认为此次事件可能触及多个AI实验室训练与评估系统的核心数据链。

LiteLLM 月下载量接近一亿次,被开发者广泛用于连接 OpenAI、Anthropic、Google DeepMind 等上百家AI服务。安全公司 Snyk 称恶意版本在发布数小时内被下架,但开发供应链漏洞使攻击者能在短时间内大规模入侵依赖该库的系统,引发业界警惕。

来源:公开信息

ABAB AI 解读

这起事件揭示了全球AI生态一个长期被低估的系统性脆弱点——模型训练和工具链高度依赖的开源组件。Mercor 作为AI人力外包与模型反馈平台,与实验室研发链条保持深度耦合。一旦基础依赖库遭到污染,风险不再局限于单一企业,而是沿着供应链迅速扩散,暴露出AI产业“低信任、高集中”的结构性弱点。

LiteLLM 被攻破的事实说明:AI 技术堆栈正逼近与传统软件供应链攻击相同的复杂度门槛,但其代价更高——任何小型库的入侵,都可能泄露包含指令模板、训练样本或系统密钥的核心数据。这意味着模型安全与AI企业防御能力的本质区别,已从“模型层防护”转向“依赖栈治理”。

从更广的金融与地缘技术角度看,这起事件可能催化AI行业安全资本重组。随着AI基础设施和供应链防护成为核心议题,云厂商、安全技术公司和模型研发方之间的权力分布将再度倾斜,类似当年SolarWinds事件促发的安全“防御化周期”。在AI进入产业关键期之际,安全信任体系的缺口正成为新的限制性变量,也是未来资本和监管重估的起点。

AI

来源

·
·
1 分钟阅读
·5 天前
分享: