Des chercheurs testant 428 services de routage LLM ont découvert que 9 injectent activement du code malveillant dans les appels d'outils IA — les commandes qui disent aux systèmes d'exécuter du code, d'installer des logiciels ou d'accéder aux API. Un routeur payant et huit services gratuits modifiaient les instructions après que les modèles les aient générées mais avant que les systèmes clients les exécutent, maintenant un formatage valide pour éviter la détection. Les attaques ciblaient les sessions autonomes où les commandes s'exécutent sans approbation humaine, certains routeurs attendant plus de 50 requêtes avant de frapper pour éviter les tests à court terme.

Ce n'est plus théorique. Un incident en mars avec le routeur LiteLLM a montré comment les attaques de confusion de dépendances peuvent compromettre des pipelines de requêtes entiers, donnant aux attaquants accès à chaque appel API transitant par les systèmes affectés. La couche de routage est devenue une surface d'attaque critique que la plupart des développeurs traitent comme une infrastructure de confiance. Avec les agents IA gérant de plus en plus d'opérations sensibles de manière autonome, ces services intermédiaires peuvent silencieusement altérer ce qui est exécuté tout en paraissant fonctionner normalement.

Le vol d'identifiants est tout aussi préoccupant. Dix-sept routeurs gratuits ont activement utilisé les identifiants canari AWS après exposition, et un a drainé les fonds d'une clé privée Ethereum surveillée. Quand les chercheurs ont intentionnellement divulgué une clé API OpenAI sur des forums chinois, elle a généré 100M tokens d'utilisation à travers plusieurs systèmes, démontrant comment les clés compromises se propagent dans l'écosystème. Pendant ce temps, le paysage plus large des outils IA montre des hypothèses de confiance similaires — les développeurs construisant des agents se concentrent sur les frameworks de "cerveau" comme LangChain tout en traitant les couches d'intégration comme des problèmes résolus.

Si vous routez des requêtes LLM à travers des services tiers, auditez vos fournisseurs maintenant. Implémentez la signature de requêtes, surveillez les modifications inattendues d'appels d'outils, et ne routez jamais d'opérations sensibles à travers des services gratuits ou non vérifiés. La commodité des API de routage unifiées ne vaut pas le risque quand les attaquants peuvent silencieusement réécrire les commandes de votre IA.