CrowdStrike e IBM estão correndo para implementar "SOCs agênticos" — centros de operações de segurança onde agentes de IA investigam e contêm ameaças autonomamente em segundos ao invés de horas. O impulso vem enquanto ambas empresas relatam que atacantes estão cada vez mais usando IA para comprimir cronogramas de ataque, forçando defensores a igualar velocidade de máquina com respostas de máquina. A abordagem da CrowdStrike foca em agentes de investigação autônomos que podem pivotar através de análise forense de rede sem intervenção humana, enquanto a plataforma da IBM enfatiza camadas de governança que mantêm supervisão humana no loop para decisões críticas.
Isso representa uma aposta fundamental de que a indústria de cibersegurança pode resolver ataques movidos por IA com mais IA — uma proposição arriscada dado o quão errado sistemas autônomos podem dar. O timing não é coincidência: atores de ameaça já estão usando IA para automatizar reconhecimento, gerar malware polimórfico, e lançar ataques coordenados que evoluem mais rápido do que analistas humanos conseguem rastrear. O "SOC agêntico" é essencialmente uma admissão de que resposta a incidentes tradicional dirigida por humanos está morta contra adversários de IA.
O que está faltando nas propostas de ambos fornecedores é discussão honesta sobre modos de falha. Lembram da minha cobertura da RSAC no início do ano, onde equipes de segurança admitiram que não conseguiam nem rastrear seus próprios agentes de IA, quanto mais os maliciosos? O problema fundamental não mudou: quando você dá a sistemas de IA autonomia para "conter ameaças", você também está dando a eles poder para quebrar coisas catastroficamente. Tanto CrowdStrike quanto IBM estão apostando que podem construir melhores proteções que todos os outros que tentaram.
Para desenvolvedores construindo ferramentas de segurança, isso sinaliza para onde o mercado está indo — em direção a pilhas de segurança nativas de IA que assumem que operadores humanos não conseguem acompanhar. Se vocês estão integrando APIs de segurança, esperem mais capacidades autônomas e menos saídas legíveis por humanos. A pergunta não é se SOCs agênticos vão funcionar, mas se vão falhar melhor que alternativas dirigidas por humanos.
