A Grafana Labs usou o GrafanaCON 2026 em Barcelona para enviar um lote de atualizações que caem numa tese limpa: observabilidade para agentes de IA e apps LLM é uma categoria de produto real, e a Grafana quer estar onde você instrumenta. Várias peças aterrissaram juntas: preview de AI Observability no Grafana Cloud, um novo CLI que conecta Claude Code e GitHub Copilot ao Grafana, o Grafana Assistant agora disponível no tier empresarial, um Loki reconstruído, e o11y-bench, uma ferramenta open source de benchmarking de agentes.
AI Observability (preview público no Grafana Cloud) instrumenta entradas, saídas e fluxos de execução de agentes, e vigia respostas de baixa qualidade, violações de políticas, exposição de dados, e credenciais vazadas. O Grafana Cloud CLI (GCX) é a peça mais interessante para os builders, uma interface agêntica que permite invocar o Grafana Assistant diretamente do Claude Code ou GitHub Copilot, puxando dados de observabilidade para seu loop de coding em vez de forçar um troca de contexto. O Grafana Loki foi reconstruído sobre uma arquitetura Apache Kafka, e os números que a Grafana divulgou são concretos: melhoria de 10× em performance em queries agregados escaneando 20× menos dados. O Grafana Assistant está agora no tier empresarial com um workspace em tela cheia e uma API para integração de ferramentas de terceiros. O o11y-bench mede quão bem os agentes de IA executam tarefas do mundo real contra um stack Grafana em produção.
A reconstrução do Loki importa em silêncio. A performance de query de logs agregados é o que faz observabilidade usável em escala, e um 10× com 20× menos dados escaneados é o tipo de reivindicação de eficiência que baixa diretamente as contas de observabilidade para qualquer um rodando Grafana Cloud ou Loki self-hosted. A integração Claude Code e GitHub Copilot é a aposta mais estratégica. Posiciona a Grafana como o plano de observabilidade que você consulta de dentro das suas ferramentas de coding assistidas por IA em vez de como uma UI separada. Entre isso, Grafana Assistant alcançando o empresarial, e o11y-bench como ferramenta open source de benchmarking, o quadro é a Grafana tentando dominar a pergunta "onde você observa seus agentes de IA?" antes que Arize, WhyLabs, as features de IA do Honeycomb, ou opções hyperscaler-nativas travem a categoria.
Duas coisas se você opera software conectado a IA. Um, o padrão CLI-agêntico está se espalhando — Claude Code tem sua ferramenta Agent, Gemini CLI enviou subagentes semana passada, e agora Grafana Cloud CLI conecta em ambos os CLIs de dev diretamente. A tendência é clara: sua observabilidade, seu debugging, suas queries de ops vão acontecer cada vez mais dentro do loop de agente em vez de em abas separadas, e os provedores de instrumentação estão correndo para estar dentro desse loop. Dois, se você está rodando Loki em escala, a reivindicação de 10× em queries agregados vale a pena medir contra sua carga de trabalho real no próximo trimestre. Se o speedup segurar na sua forma de tráfego, as economias são reais.
