A Meta pausou indefinidamente o trabalho com a contratada de treinamento de IA Mercor após a startup ter sido comprometida através de um ataque à cadeia de suprimentos no LiteLLM, a popular biblioteca open-source para gerenciar múltiplos modelos de IA. Os atacantes usaram credenciais roubadas de mantenedores para publicar as versões maliciosas 1.82.7 e 1.82.8 no PyPI por aproximadamente 40 minutos — breve pelos padrões humanos, mas tempo suficiente para infiltrar milhares de empresas que atualizam automaticamente dependências. A Mercor, que facilita mais de $2 milhões em pagamentos diários conectando labs de IA com contratados humanos para treinamento e avaliação de modelos, confirmou estar entre as empresas afetadas.

Esta violação expõe uma vulnerabilidade crítica na infraestrutura de IA que vai muito além de qualquer startup individual. A Mercor está localizada num ponto de controle no pipeline de desenvolvimento de IA, lidando com fluxos de trabalho sensíveis entre grandes laboratórios como OpenAI e Anthropic e os especialistas humanos que treinam seus modelos. Quando intermediários confiáveis são comprometidos através de dependências comuns, o raio de explosão pode atingir clientes que nunca interagiram diretamente com o software vulnerável. É o mesmo padrão que vimos em ataques tradicionais à cadeia de suprimentos, mas agora está atingindo a camada operacional que alimenta o desenvolvimento de IA.

Embora o Lapsus$ tenha alegado ter roubado mais de 4TB de dados, a Mercor não validou essa alegação. O que está confirmado é mais preocupante: a OpenAI está investigando se dados de treinamento proprietários foram expostos, e outros grandes labs de IA estão reavaliando seus relacionamentos com a Mercor. A revisão forense está em andamento, mas o dano à confiança já está feito. Para uma indústria construída sobre gerenciar vastas quantidades de dados sensíveis de treinamento através de relacionamentos complexos com fornecedores, este é exatamente o tipo de violação que força questões desconfortáveis sobre gestão de riscos de terceiros.

Para desenvolvedores construindo sobre infraestrutura de IA, este é um sinal de alerta sobre higiene de dependências. O LiteLLM é usado em todos os lugares porque abstrai a complexidade de trabalhar com múltiplos provedores de IA — exatamente o tipo de biblioteca fundamental que se torna invisível até quebrar. Fixe suas dependências, audite sua cadeia de suprimentos, e assuma que qualquer coisa tocando seus fluxos de trabalho de IA pode se tornar um vetor de comprometimento.