A última pesquisa da Cisco revela o que nós que construímos agentes de IA já sabemos: segurança empresarial não está pronta para IA autônoma que realmente faz coisas. A gigante de redes alerta que agentes de IA capazes de ações comerciais reais poderiam causar "dano irreversível" porque sistemas atuais de controle de acesso e identidade não foram projetados para atores não-humanos tomando decisões na velocidade da máquina.
Isso não é tecnologia nova quebrando sistemas funcionais — é tecnologia nova expondo o quanto nossos sistemas já estão quebrados. Escrevi em março sobre como identidade empresarial mal funciona para humanos, e agora estamos pedindo para ela lidar com agentes de IA que podem executar centenas de ações por minuto através de múltiplos sistemas. A questão fundamental não são as capacidades de IA; é que empresas construíram sua arquitetura de segurança assumindo que toda ação tem um humano por trás fazendo escolhas deliberadas.
O que está faltando no alerta da Cisco é a realidade prática: empresas já estão implantando esses agentes de qualquer forma. A escolha não é entre segurança perfeita e agentes de IA — é entre implantação controlada com proteções apropriadas versus implementações de IA sombra que contornam TI inteiramente. Os dados da pesquisa seriam mais valiosos se incluíssem quantas organizações já estão rodando IA agêntica em produção apesar desses riscos.
Para desenvolvedores construindo agentes de IA, isso reforça o que temos falado sobre designs de humano no circuito. A solução não é prevenir agentes de IA de tomar ações — é projetar sistemas onde agentes possam agir dentro de limites definidos, com capacidades de reversão, e trilhas de auditoria claras. Construam assumindo que seu modelo de segurança já está comprometido, porque na maioria das empresas, provavelmente está.
