A Manifold Security lançou o Manifest, uma plataforma de inteligência de cadeia de suprimentos projetada para mapear e analisar como componentes de agentes de IA interagem entre si e com sistemas externos. A plataforma ajuda empresas a entender dependências por trás do comportamento dos agentes, incluindo conexões a serviços externos—um ponto cego crítico enquanto companhias correm para implementar agentes autônomos em ambientes de produção.
Isso aborda um problema real que vinha fermentando por baixo dos panos. Conforme agentes de IA ficam mais sofisticados e começam a chamar API, acessar bancos de dados, e se integrar com serviços de terceiros, modelos de segurança tradicionais quebram. Você não pode simplesmente escanear um container Docker e chamá-lo de seguro quando seu agente pode dinamicamente se conectar a dezenas de serviços externos baseado em prompts de usuários. A superfície de ataque da cadeia de suprimentos explode quando agentes começam a decidir autonomamente quais ferramentas usar.
O timing se alinha com esforços mais amplos de infraestrutura ao redor da segurança de agentes. Projetos como o nono (do criador do Sigstore) estão construindo sandboxes baseados em capacidades especificamente para agentes de IA, enquanto o GenAI Security Project da OWASP está expandindo frameworks para segurança de IA agêntica. Esses não são esforços isolados—são respostas ao mesmo desafio fundamental: segurança de aplicação tradicional não funciona quando sua "aplicação" pode se reescrever e chamar serviços externos arbitrários.
Para desenvolvedores construindo sistemas de agentes, isso significa que segurança não pode mais ser um pensamento posterior. Se você está integrando agentes em fluxos de trabalho de produção, você precisa de visibilidade do que eles estão realmente se conectando e quando. A alternativa é implementar caixas-pretas na sua infraestrutura e torcer pelo melhor—que é exatamente como ataques de cadeia de suprimentos têm sucesso.
