La última encuesta de Cisco revela lo que quienes construimos agentes de IA ya sabemos: la seguridad empresarial no está lista para IA autónoma que realmente hace cosas. El gigante de redes advierte que los agentes de IA capaces de acciones comerciales reales podrían causar "daño irreversible" porque los sistemas actuales de control de acceso e identidad no fueron diseñados para actores no humanos tomando decisiones a velocidad de máquina.

Esto no es tecnología nueva rompiendo sistemas que funcionan — es tecnología nueva exponiendo qué tan rotos ya están nuestros sistemas. Escribí en marzo sobre cómo la identidad empresarial apenas funciona para humanos, y ahora le estamos pidiendo que maneje agentes de IA que podrían ejecutar cientos de acciones por minuto a través de múltiples sistemas. El problema fundamental no son las capacidades de IA; es que las empresas construyeron su arquitectura de seguridad asumiendo que cada acción tiene un humano detrás tomando decisiones deliberadas.

Lo que falta en la advertencia de Cisco es la realidad práctica: las empresas ya están desplegando estos agentes de todos modos. La elección no es entre seguridad perfecta y agentes de IA — es entre despliegue controlado con salvaguardas apropiadas versus implementaciones de IA en las sombras que evitan completamente a TI. Los datos de la encuesta serían más valiosos si incluyeran cuántas organizaciones ya están ejecutando IA agéntica en producción a pesar de estos riesgos.

Para desarrolladores construyendo agentes de IA, esto refuerza lo que hemos estado diciendo sobre diseños de humano en el bucle. La solución no es prevenir que los agentes de IA tomen acciones — es diseñar sistemas donde los agentes puedan actuar dentro de límites definidos, con capacidades de reversión, y rastros de auditoría claros. Construyan asumiendo que su modelo de seguridad ya está comprometido, porque en la mayoría de empresas, probablemente lo está.