Meta a suspendu indéfiniment son travail avec l'entrepreneur d'entraînement IA Mercor après que la startup ait été compromise par une attaque de chaîne d'approvisionnement sur LiteLLM, la bibliothèque open-source populaire pour gérer plusieurs modèles IA. Les attaquants ont utilisé des identifiants de mainteneur volés pour publier les versions malveillantes 1.82.7 et 1.82.8 sur PyPI pendant environ 40 minutes — bref selon les standards humains, mais assez long pour infiltrer des milliers d'entreprises qui mettent à jour automatiquement leurs dépendances. Mercor, qui facilite plus de 2 millions de dollars en paiements quotidiens connectant les laboratoires IA avec des entrepreneurs humains pour l'entraînement et l'évaluation de modèles, a confirmé faire partie des entreprises affectées.

Cette brèche expose une vulnérabilité critique dans l'infrastructure IA qui va bien au-delà d'une seule startup. Mercor se situe à un point de contrôle dans le pipeline de développement IA, gérant des flux de travail sensibles entre les grands laboratoires comme OpenAI et Anthropic et les experts humains qui entraînent leurs modèles. Quand des intermédiaires de confiance sont compromis par des dépendances communes, le rayon d'impact peut atteindre des clients qui n'ont jamais directement interagi avec le logiciel vulnérable. C'est le même pattern qu'on a vu dans les attaques traditionnelles de chaîne d'approvisionnement, mais maintenant ça frappe la couche opérationnelle qui alimente le développement IA.

Bien que Lapsus$ ait prétendu avoir volé plus de 4TB de données, Mercor n'a pas validé cette affirmation. Ce qui est confirmé est plus préoccupant : OpenAI enquête pour savoir si des données d'entraînement propriétaires ont été exposées, et d'autres grands laboratoires IA réévaluent leurs relations avec Mercor. L'examen forensique est en cours, mais les dommages à la confiance sont déjà faits. Pour une industrie bâtie sur la gestion de vastes quantités de données d'entraînement sensibles à travers des relations complexes avec des fournisseurs, c'est exactement le genre de brèche qui force des questions inconfortables sur la gestion des risques tiers.

Pour les développeurs qui construisent sur l'infrastructure IA, c'est un signal d'alarme concernant l'hygiène des dépendances. LiteLLM est utilisé partout parce qu'il fait abstraction de la complexité de travailler avec plusieurs fournisseurs IA — exactement le genre de bibliothèque fondamentale qui devient invisible jusqu'à ce qu'elle brise. Épinglez vos dépendances, auditez votre chaîne d'approvisionnement, et supposez que tout ce qui touche vos flux de travail IA pourrait devenir un vecteur de compromission.