Grafana Labs usó GrafanaCON 2026 en Barcelona para enviar un lote de actualizaciones que caen en una tesis limpia: la observabilidad para agentes de IA y apps LLM es una categoría de producto real, y Grafana quiere estar donde la instrumentas. Varias piezas aterrizaron juntas: preview de AI Observability en Grafana Cloud, un nuevo CLI que conecta Claude Code y GitHub Copilot con Grafana, el Grafana Assistant ahora disponible en el tier empresarial, un Loki reconstruido, y o11y-bench, una herramienta open source de benchmarking de agentes.
AI Observability (preview público en Grafana Cloud) instrumenta entradas, salidas y flujos de ejecución de agentes, y vigila respuestas de baja calidad, violaciones de políticas, exposición de datos, y credenciales filtradas. El Grafana Cloud CLI (GCX) es la pieza más interesante para los builders, una interfaz agéntica que te deja invocar el Grafana Assistant directamente desde Claude Code o GitHub Copilot, jalando datos de observabilidad a tu loop de coding en vez de forzar un cambio de contexto. Grafana Loki ha sido reconstruido sobre una arquitectura Apache Kafka, y los números que Grafana divulgó son concretos: mejora de 10× en rendimiento en queries agregados mientras escanea 20× menos datos. Grafana Assistant está ahora en el tier empresarial con un workspace de pantalla completa y una API para integración de herramientas de terceros. o11y-bench mide qué tan bien los agentes de IA ejecutan tareas del mundo real contra un stack Grafana en vivo.
La reconstrucción de Loki importa en silencio. El rendimiento de query de logs agregados es lo que hace la observabilidad usable a escala, y un 10× con 20× menos datos escaneados es el tipo de reclamo de eficiencia que baja directamente las facturas de observabilidad para cualquiera corriendo Grafana Cloud o Loki self-hosted. La integración Claude Code y GitHub Copilot es la apuesta más estratégica. Posiciona Grafana como el plano de observabilidad que consultas desde dentro de tus herramientas de coding asistidas por IA en vez de como una UI separada. Entre eso, Grafana Assistant alcanzando empresarial, y o11y-bench como herramienta open source de benchmarking, la imagen es Grafana intentando poseer la pregunta "¿dónde observas tus agentes de IA?" antes de que Arize, WhyLabs, las features de IA de Honeycomb, o las opciones hyperscaler-nativas bloqueen la categoría.
Dos cosas si operas software conectado a IA. Uno, el patrón CLI-agéntico se está propagando — Claude Code tiene su herramienta Agent, Gemini CLI envió subagentes la semana pasada, y ahora Grafana Cloud CLI se conecta a los dos CLIs de dev directamente. La tendencia es clara: tu observabilidad, tu debugging, tus queries de ops van a ocurrir cada vez más dentro del loop de agente en vez de en pestañas separadas, y los proveedores de instrumentación están corriendo para estar dentro de ese loop. Dos, si estás corriendo Loki a escala, el reclamo de 10× en queries agregados vale la pena medir contra tu carga de trabajo real en el próximo trimestre. Si el speedup se mantiene en tu forma de tráfico, los ahorros son reales.
