Meta ha pausado indefinidamente el trabajo con el contratista de entrenamiento de IA Mercor después de que la startup fuera comprometida a través de un ataque de cadena de suministro en LiteLLM, la popular biblioteca open-source para manejar múltiples modelos de IA. Los atacantes usaron credenciales robadas de mantenedores para publicar las versiones maliciosas 1.82.7 y 1.82.8 en PyPI por aproximadamente 40 minutos — breve según estándares humanos, pero suficiente tiempo para infiltrar miles de empresas que actualizan automáticamente las dependencias. Mercor, que facilita más de $2 millones en pagos diarios conectando laboratorios de IA con contratistas humanos para entrenamiento y evaluación de modelos, confirmó estar entre las empresas afectadas.
Esta brecha expone una vulnerabilidad crítica en la infraestructura de IA que va mucho más allá de cualquier startup individual. Mercor se sitúa en un punto de control en el pipeline de desarrollo de IA, manejando flujos de trabajo sensibles entre grandes laboratorios como OpenAI y Anthropic y los expertos humanos que entrenan sus modelos. Cuando intermediarios confiables se ven comprometidos a través de dependencias comunes, el radio de explosión puede alcanzar clientes que nunca interactuaron directamente con el software vulnerable. Es el mismo patrón que hemos visto en ataques tradicionales de cadena de suministro, pero ahora está golpeando la capa operacional que impulsa el desarrollo de IA.
Aunque Lapsus$ ha afirmado haber robado más de 4TB de datos, Mercor no ha validado esa afirmación. Lo que está confirmado es más preocupante: OpenAI está investigando si datos de entrenamiento propietarios fueron expuestos, y otros grandes laboratorios de IA están reevaluando sus relaciones con Mercor. La revisión forense está en curso, pero el daño a la confianza ya está hecho. Para una industria construida sobre manejar vastas cantidades de datos sensibles de entrenamiento a través de relaciones complejas con proveedores, este es exactamente el tipo de brecha que fuerza preguntas incómodas sobre la gestión de riesgos de terceros.
Para desarrolladores construyendo sobre infraestructura de IA, esto es una llamada de atención sobre la higiene de dependencias. LiteLLM se usa en todas partes porque abstrae la complejidad de trabajar con múltiples proveedores de IA — exactamente el tipo de biblioteca fundamental que se vuelve invisible hasta que se rompe. Fija tus dependencias, audita tu cadena de suministro, y asume que cualquier cosa que toque tus flujos de trabajo de IA podría convertirse en un vector de compromiso.
