Padrões comuns: o padrão supervisor (um agente "gerente" delega para agentes "trabalhadores" especializados), o padrão debate (agentes argumentam posições opostas para chegar a uma conclusão mais equilibrada), o padrão pipeline (agentes processam sequencialmente, cada um refinando a saída anterior) e o padrão peer (agentes trabalham em paralelo em diferentes aspectos de um problema e mesclam resultados).
Vários frameworks suportam sistemas multi-agentes: AutoGen (Microsoft) permite que agentes conversem entre si, CrewAI fornece equipes de agentes baseadas em papéis, LangGraph lida com workflows complexos de agentes como máquinas de estado, e o SDK de agentes da Anthropic suporta orquestração multi-agente. A escolha depende da complexidade: handoffs simples não precisam de framework; workflows complexos com lógica de ramificação e aprovação humana se beneficiam de orquestração estruturada.
Sistemas multi-agentes multiplicam custos de API de LLM — se três agentes fazem cinco chamadas cada para resolver um problema, isso é 15x o custo de uma única chamada. A proposta de valor é que a melhoria de qualidade justifica o custo para tarefas de alto risco. Um agente de revisão de código que detecta bugs antes do deploy economiza mais do que as chamadas de API custam. Mas para tarefas simples, um único modelo bem-promptado geralmente é suficiente e muito mais barato.