CrowdStrike et IBM se précipitent pour déployer des « SOC agentiques » — des centres d'opérations de sécurité où les agents IA enquêtent et contiennent les menaces de façon autonome en quelques secondes plutôt qu'en heures. Cette poussée survient alors que les deux compagnies rapportent que les attaquants utilisent de plus en plus l'IA pour comprimer les échéanciers d'attaque, forçant les défenseurs à égaler la vitesse des machines avec des réponses machinales. L'approche de CrowdStrike se concentre sur des agents d'enquête autonomes qui peuvent pivoter à travers l'analyse forensique réseau sans intervention humaine, tandis que la plateforme d'IBM met l'accent sur des couches de gouvernance qui maintiennent la supervision humaine dans la boucle pour les décisions critiques.
Ceci représente un pari fondamental que l'industrie de la cybersécurité peut résoudre les attaques alimentées par l'IA avec plus d'IA — une proposition risquée étant donné à quel point les systèmes autonomes peuvent mal tourner. Le timing n'est pas coïncidentiel : les acteurs malveillants utilisent déjà l'IA pour automatiser la reconnaissance, générer des logiciels malveillants polymorphes, et lancer des attaques coordonnées qui évoluent plus rapidement que les analystes humains peuvent suivre. Le « SOC agentique » est essentiellement un aveu que la réponse aux incidents traditionnelle menée par des humains est morte face aux adversaires IA.
Ce qui manque dans les présentations des deux fournisseurs, c'est une discussion honnête sur les modes de défaillance. Vous vous rappelez ma couverture de RSAC plus tôt cette année, où les équipes de sécurité ont admis qu'elles ne pouvaient même pas suivre leurs propres agents IA, encore moins les malveillants ? Le problème fondamental n'a pas changé : quand vous donnez aux systèmes IA l'autonomie de « contenir les menaces », vous leur donnez aussi le pouvoir de casser les choses de façon catastrophique. CrowdStrike et IBM parient qu'ils peuvent construire de meilleurs garde-fous que tous les autres qui ont essayé.
Pour les développeurs qui construisent des outils de sécurité, ceci signale où le marché se dirige — vers des piles de sécurité natives IA qui assument que les opérateurs humains ne peuvent pas suivre le rythme. Si vous intégrez des API de sécurité, attendez-vous à plus de capacités autonomes et moins de sorties lisibles par les humains. La question n'est pas de savoir si les SOC agentiques vont fonctionner, mais s'ils vont échouer mieux que les alternatives menées par des humains.
