CrowdStrike e IBM compiten por desplegar "SOCs agénticos" — centros de operaciones de seguridad donde agentes de IA investigan y contienen amenazas autónomamente en segundos en lugar de horas. El impulso surge mientras ambas compañías reportan que atacantes usan cada vez más IA para comprimir líneas de tiempo de ataques, forzando a defensores a igualar la velocidad de máquinas con respuestas de máquinas. El enfoque de CrowdStrike se centra en agentes de investigación autónomos que pueden pivotar a través de análisis forense de red sin intervención humana, mientras la plataforma de IBM enfatiza capas de gobernanza que mantienen supervisión humana en el circuito para decisiones críticas.

Esto representa una apuesta fundamental de que la industria de ciberseguridad puede resolver ataques potenciados por IA con más IA — una proposición arriesgada dado lo mal que pueden salir los sistemas autónomos. El momento no es coincidencia: actores de amenazas ya usan IA para automatizar reconocimiento, generar malware polimórfico, y lanzar ataques coordinados que evolucionan más rápido de lo que analistas humanos pueden rastrear. El "SOC agéntico" es esencialmente una admisión de que la respuesta a incidentes tradicional dirigida por humanos está muerta contra adversarios de IA.

Lo que falta en las propuestas de ambos proveedores es discusión honesta sobre modos de falla. ¿Recuerdan mi cobertura de RSAC este año, donde equipos de seguridad admitieron que no podían ni rastrear sus propios agentes de IA, mucho menos los maliciosos? El problema fundamental no ha cambiado: cuando das a sistemas de IA autonomía para "contener amenazas", también les das poder para romper cosas catastróficamente. Tanto CrowdStrike como IBM apuestan a que pueden construir mejores salvaguardas que todos los demás que lo han intentado.

Para desarrolladores construyendo herramientas de seguridad, esto señala hacia dónde se dirige el mercado — hacia pilas de seguridad nativas de IA que asumen que operadores humanos no pueden mantenerse al día. Si están integrando APIs de seguridad, esperen más capacidades autónomas y menos salidas legibles por humanos. La pregunta no es si los SOCs agénticos funcionarán, sino si fallarán mejor que las alternativas dirigidas por humanos.