Duas startups de segurança de IA saíram do modo stealth esta semana com pitches quase idênticos: usar agentes de IA para proteger código que provavelmente foi gerado por IA em primeiro lugar. A Gitar levantou $9 milhões para revisar código gerado por IA, enquanto a Trent AI sediada em Londres arrecadou $13 milhões da LocalGlobe e Cambridge Innovation Capital pelo que chamam de "solução de segurança multi-agente" que protege agentes de IA ao longo de todo seu ciclo de vida.

Isso parece a lógica de IA do auge de 2026 — agora chegamos ao ponto onde precisamos de IA para vigiar IA que está escrevendo código para humanos que cada vez entendem menos o que a IA escreveu. Os fundadores da Trent AI, ex-engenheiros da AWS, pelo menos parecem entender a complexidade recursiva com a qual estão lidando. Sua plataforma promete agentes que "trabalham juntos continuamente" para escanear modelos, analisar riscos, corrigir vulnerabilidades e validar correções ao longo de todo o fluxo de trabalho de desenvolvimento.

O que é revelador é como essas empresas estão posicionando de forma diferente essencialmente o mesmo problema. Enquanto a Gitar foca especificamente em revisão de código, a Trent AI vai mais amplo com linguagem de "plataforma em camadas" que sugere que entendem que isso não é só sobre pegar bugs — é sobre proteger sistemas autônomos inteiros que estão tomando decisões sem supervisão humana. Enquanto isso, projetos open-source como "The Agency" já estão dando aos desenvolvedores agentes de IA especializados para tudo, desde desenvolvimento frontend até gerenciamento do Reddit, mostrando quão rapidamente essa abordagem multi-agente está se tornando padrão.

Para desenvolvedores, isso representa tanto oportunidade quanto exaustão. Sim, agentes de IA provavelmente podem detectar problemas de segurança que revisores humanos perdem. Mas também estamos adicionando outra camada de complexidade de IA para debugar quando as coisas dão errado. O teste real será se esses agentes de segurança conseguem explicar suas decisões claramente o suficiente para humanos confiarem neles — ou se estamos só construindo um castelo de cartas de IA.