Os requisitos de logging da Lei de IA da UE para sistemas de IA de alto risco esbarram numa parede de conformidade com IA agêntica. O Artigo 12 obriga "registro automático de eventos" com garantias à prova de violação que logs de aplicação padrão não conseguem fornecer. Embora a regulamentação não nomeie agentes IA especificamente, sistemas que pontuam crédito, filtram currículos, ou tomam decisões de saúde se enquadram na classificação de alto risco do Anexo III. O prazo é 2 de agosto de 2026.

Isso cria um pesadelo técnico que a maioria das organizações ainda não entendeu. Agentes IA não apenas executam chamadas API — eles raciocinam, delegam, e encadeiam invocações de ferramentas através de árvores de decisão que arquiteturas de logging padrão não foram construídas para capturar. Como cobri em abril, IA agêntica expõe buracos negros de governança. O Artigo 12 torna esses buracos responsabilidades regulatórias. Você precisa registrar não apenas o que o agente fez, mas por que escolheu esse caminho, quais ferramentas chamou, e como chegou à sua decisão.

A cobertura de desenvolvedores revela a lacuna prática: a maioria das equipes pensa que conformidade significa dashboards CloudWatch melhores. Errado. O Artigo 12 requer assinatura criptográfica ou imutabilidade estilo blockchain para provar que logs não foram alterados retroativamente. A regulamentação abrange os Artigos 12, 13, 19, e 26 com referências cruzadas que tornam a implementação pouco clara. Serviços financeiros podem integrar logs IA em frameworks regulatórios existentes, mas todos os outros enfrentam retenção mínima de seis meses com extensões específicas do setor.

Se você está construindo agentes para casos de uso regulamentados, comece a projetar arquitetura de logging agora. "Temos observabilidade" não é uma estratégia de conformidade quando reguladores exigem prova de que seus logs de decisão não foram alterados seis meses após o fato.