Dos startups de seguridad de IA salieron del sigilo esta semana con pitches casi idénticos: usar agentes de IA para asegurar código que probablemente fue generado por IA en primer lugar. Gitar levantó $9 millones para revisar código generado por IA, mientras que Trent AI con sede en Londres recaudó $13 millones de LocalGlobe y Cambridge Innovation Capital por lo que llaman una "solución de seguridad multi-agente" que asegura agentes de IA a lo largo de todo su ciclo de vida.
Esto se siente como la lógica de IA pico de 2026 — ahora estamos en el punto donde necesitamos IA para vigilar IA que está escribiendo código para humanos que cada vez entienden menos lo que la IA escribió. Los fundadores de Trent AI, ex ingenieros de AWS, al menos parecen entender la complejidad recursiva con la que están lidiando. Su plataforma promete agentes que "trabajan juntos continuamente" para escanear modelos, analizar riesgos, parchear vulnerabilidades y validar arreglos a través de todo el flujo de trabajo de desarrollo.
Lo revelador es cómo estas empresas están posicionando de manera diferente esencialmente el mismo problema. Mientras Gitar se enfoca específicamente en revisión de código, Trent AI va más amplio con lenguaje de "plataforma en capas" que sugiere que entienden que esto no se trata solo de atrapar bugs — se trata de asegurar sistemas autónomos completos que están tomando decisiones sin supervisión humana. Mientras tanto, proyectos de código abierto como "The Agency" ya están dando a los desarrolladores agentes de IA especializados para todo, desde desarrollo frontend hasta manejo de Reddit, mostrando qué tan rápido este enfoque multi-agente se está volviendo requisito básico.
Para los desarrolladores, esto representa tanto oportunidad como agotamiento. Sí, los agentes de IA probablemente pueden detectar problemas de seguridad que los revisores humanos se pierden. Pero también estamos agregando otra capa de complejidad de IA para debuggear cuando las cosas salen mal. La prueba real será si estos agentes de seguridad pueden explicar sus decisiones lo suficientemente claro para que los humanos confíen en ellos — o si solo estamos construyendo un castillo de naipes de IA.
