Meta已无限期暂停与AI训练承包商Mercor的合作,此前这家初创公司通过对LiteLLM的供应链攻击被入侵,LiteLLM是用于管理多个AI模型的流行开源库。攻击者使用被盗的维护者凭证向PyPI发布了恶意版本1.82.7和1.82.8,持续约40分钟——按人类标准很短,但足以渗透数千家自动更新依赖项的公司。Mercor证实自己是受影响的公司之一,该公司每日促成超过200万美元的支付,连接AI实验室与为模型训练和评估的人工承包商。

这次入侵暴露了AI基础设施中的关键漏洞,其影响远超任何单一初创公司。Mercor处于AI开发管道的关键节点,处理OpenAI和Anthropic等主要实验室与训练其模型的人类专家之间的敏感工作流。当受信任的中介通过共同依赖项被入侵时,爆炸半径可以波及从未直接与漏洞软件交互的客户。这与我们在传统供应链攻击中看到的模式相同,但现在正在冲击支撑AI开发的运营层。

虽然Lapsus$声称已窃取超过4TB数据,但Mercor尚未验证该声明。已确认的情况更令人担忧:OpenAI正在调查专有训练数据是否被泄露,其他主要AI实验室正在重新评估与Mercor的关系。取证审查仍在进行中,但对信任的损害已经造成。对于一个建立在通过复杂供应商关系管理大量敏感训练数据基础上的行业,这正是那种迫使人们对第三方风险管理提出不舒适问题的入侵类型。

对于在AI基础设施上构建的开发者来说,这是关于依赖项卫生的警钟。LiteLLM被广泛使用,因为它抽象了与多个AI提供商合作的复杂性——正是这种基础库在出问题之前变得不可见。锁定你的依赖项,审计你的供应链,并假设任何接触你AI工作流的东西都可能成为入侵向量。