Patrones comunes: el patrón supervisor (un agente "gerente" delega a agentes "trabajadores" especializados), el patrón de debate (los agentes argumentan posiciones opuestas para llegar a una conclusión más equilibrada), el patrón pipeline (los agentes procesan secuencialmente, cada uno refinando la salida anterior), y el patrón de pares (los agentes trabajan en paralelo en diferentes aspectos de un problema y fusionan resultados).
Varios frameworks soportan sistemas multi-agente: AutoGen (Microsoft) permite que los agentes conversen entre sí, CrewAI proporciona equipos de agentes basados en roles, LangGraph maneja flujos de trabajo de agentes complejos como máquinas de estado, y el SDK de agentes de Anthropic soporta orquestación multi-agente. La elección depende de la complejidad: los traspasos simples no necesitan un framework; los flujos de trabajo complejos con lógica de ramificación y aprobación humana se benefician de orquestación estructurada.
Los sistemas multi-agente multiplican los costos de API de LLM — si tres agentes hacen cada uno cinco llamadas para resolver un problema, eso es 15x el costo de una sola llamada. La propuesta de valor es que la mejora de calidad justifica el costo para tareas de alto riesgo. Un agente de revisión de código que detecta bugs antes del despliegue ahorra más que lo que cuestan las llamadas API. Pero para tareas simples, un solo modelo bien configurado con un buen prompt suele ser suficiente y mucho más barato.