Mistral AI lanzó Workflows el 29 de abril, una capa de orquestación para IA empresarial ahora en public preview como parte de la plataforma Studio. El pitch aborda una brecha ya familiar: los modelos y agentes de IA son cada vez más capaces, pero desplegarlos confiablemente en producción sigue siendo difícil porque la infraestructura para coordinación, monitoreo y recuperación ha sido ad-hoc. Los Workflows se definen en Python, componen modelos, agentes y conectores externos en procesos multi-paso estructurados, y pueden dispararse a través de Le Chat con la ejecución rastreada y auditada en Studio. La base técnica: Workflows está construido sobre Temporal — el motor workflow-as-code open source que potencia ejecución durable en empresas como Coinbase, Datadog y Snap — extendido con capacidades específicas de IA incluyendo streaming, manejo de payload y observabilidad mejorada.

La elección de arquitectura que importa es la separación control/data plane. La orquestación corre en infra gestionada por Mistral; los workers de ejecución y el procesamiento de datos quedan dentro del entorno del cliente, sea cloud, on-premise o híbrido. Esa separación es la respuesta correcta para empresas que no pueden enviar sus datos a través de un plane de orquestación de tercero pero quieren un planificador gestionado. También es una elección competitiva deliberada: AWS Bedrock, Google Vertex/Agents CLI y el empuje MCP de Anthropic tienen cada uno su propia historia de orquestación, pero la garantía "los datos quedan locales" es más difícil de hacer cuando el proveedor de orquestación es también el proveedor de modelo. Que Mistral sea europea juega en el mismo argumento de soberanía de datos UE que la empresa ha venido haciendo por dos años. Del lado de las features: ejecución stateful (reanudar desde el punto de falla), checkpoints human-in-the-loop que pausan sin consumir compute, políticas de retry, rate limiting, tracing — table stakes para orquestación, empacado. El ingeniero Prashanth Velidandi capturó la reacción honesta: "Por fin tenemos una capa de orquestación apropiada, pero en la práctica, los problemas siguen apareciendo un nivel más abajo. Hacer correr modelos confiablemente a través de diferentes workloads, no desperdiciar GPUs y manejar tráfico real, sigue siendo un quilombo."

El mercado de orquestación de agentes está convergiendo rápido. Antes en la sesión cubrimos la arquitectura coordinator/director/crítico/línea-de-tiempo de Slack — patrón interno publicado como referencia de ingeniería. Cubrimos el Agents CLI de Google — CLI open source que integra con Claude Code, Cursor y Gemini CLI. AWS lanzó Bedrock Managed Agents la misma semana. Anthropic tiene el empuje MCP. Ahora Mistral tiene Workflows sobre Temporal. Cinco approaches distintos, todos resolviendo el mismo problema (procesos de IA multi-paso que fallan, hacen retry, necesitan aprobación humana y tienen que ser auditables), todos lanzados aproximadamente en el mismo mes. El punto de convergencia: cada approach usa alguna variación de "darle al agente herramientas determinísticas, correr procesos multi-paso, persistir estado a través de fallas, permitir supervisión humana." La diferenciación va a ser regional (soberanía de datos UE), tooling (Temporal vs custom) o distribución (Le Chat vs Bedrock vs Agents CLI). La capa de protocolo debajo — MCP o equivalente cercano — se está estandarizando.

Para los builders, tres cosas concretas. Primero, si ya estás usando Temporal para workflows no-IA, Mistral Workflows es el camino de migración con menos fricción para agregar pasos LLM — mismas semánticas de ejecución, mismos patrones de SDK. Si no estás en Temporal, comparalo contra Inngest, Restate y DBOS antes de comprometerte. Segundo, la separación control/data plane es la arquitectura correcta para cualquier herramienta de IA empresarial que estés construyendo — la orquestación es una superficie SaaS, la ejecución le pertenece al cliente. Copiá el patrón aunque no lances sobre Mistral. Tercero, el patrón de checkpoint human-in-the-loop (pausa sin consumir compute, reanuda al input) es la primitiva correcta para cualquier workflow de IA de altos stakes. La mayoría del código de orquestación casero hace esto mal — pausar usualmente significa un loop de polling que cuesta plata. La pausa-reanudación basada en Temporal de Mistral es el comportamiento de referencia contra el cual implementar.