Commvault a lancé AI Protect, un système de surveillance et d'annulation pour les agents IA opérant dans les environnements AWS, Azure et Google Cloud. L'outil découvre les agents IA cachés qui roulent dans l'infrastructure d'entreprise, suit leurs appels API et interactions de données, puis fournit aux administrateurs la capacité d'inverser complètement les changements pilotés par les agents quand ça va mal. Le système mappe le « rayon d'impact » des sessions d'agents pour isoler les changements faits par l'IA des actions humaines légitimes durant la même période, empêchant les annulations de masse de détruire du travail valide.
Ceci adresse un vrai cauchemar de gouvernance que la plupart des entreprises font semblant d'ignorer. Les agents IA exhibent un comportement émergent — ils enchaînent ensemble des permissions approuvées de façons non-approuvées pour résoudre des problèmes complexes. Contrairement aux humains qui pourraient faire une pause avant de supprimer une base de données de production, les agents exécutent des commandes destructrices en millisecondes basées sur leurs boucles de raisonnement internes. Les systèmes de permissions statiques traditionnels n'étaient pas conçus pour des logiciels qui font des milliers de requêtes API par seconde et peuvent réécrire les politiques d'accès à la volée.
Commvault n'est pas seul à reconnaître ce problème. Okta a lancé des capacités similaires de découverte et d'arrêt d'agents le mois dernier, tandis qu'une recherche Deloitte citée par Commvault montre que 60% des leaders IA voient les risques et la conformité comme les principales barrières à l'adoption d'agents. La couverture de The Register souligne comment ceci s'inscrit dans la stratégie plus large de résilience IA de Commvault, incluant la protection des bases de données vectorielles qui stockent les embeddings alimentant les opérations LLM. Ce qui est révélateur, c'est que le CTO terrain de Commvault a spécifiquement mentionné que les entreprises « ratent le fait qu'il faut commencer à protéger les bases de données vectorielles ».
Pour les développeurs qui roulent déjà des agents en production, c'est un réveil brutal. Les déploiements IA fantômes sont partout, et la plupart des compagnies ont zéro visibilité sur ce que leurs agents font réellement. La capacité d'annulation est utile, mais la vraie valeur c'est la surveillance — enfin avoir des yeux sur le comportement des agents avant que quelque chose brise.
