A Amazon anunciou em 28 de abril que o serviço Bedrock da AWS agora oferece os modelos mais recentes da OpenAI, o serviço de codificação Codex e um novo produto chamado Bedrock Managed Agents — projetado especificamente para usar os modelos de raciocínio da OpenAI, com steering de agente e recursos de segurança embutidos. O anúncio veio menos de 24 horas depois de a OpenAI encerrar publicamente os direitos de distribuição exclusivos da Microsoft sobre seus produtos. Os dois anúncios não são coincidência: o acordo AWS-OpenAI de até US$50 bilhões havia sido bloqueado pela cláusula de exclusividade da Microsoft, e a OpenAI acabou de remover o bloqueio. O tweet de Andy Jassy ontem — "anúncio muito interessante" — sobre a notícia da Microsoft foi o sinal em campo de que a AWS se mexeria já.

Bedrock Managed Agents é a peça mais interessante. O Bedrock é o serviço da AWS para construir apps de IA e escolher modelos há dois anos, mas faltava suporte de agente de primeira classe especificamente ajustado para os modelos de raciocínio da OpenAI. O novo produto posiciona a série o da OpenAI como motor de raciocínio padrão para aplicações agentic nativas da AWS. Para os desenvolvedores, é a primeira vez que você pode construir um agente movido pelo raciocínio da OpenAI sobre infra da AWS sem passar pelo Azure ou por stacks vLLM auto-hospedadas. A disponibilidade do Codex também importa — traz o modelo de codificação da OpenAI para a mesma superfície que o resto da oferta do Bedrock (Claude, Llama, Titan, Mistral). No Bedrock, agora você pode trocar entre OpenAI Codex e Anthropic Claude com uma única chamada de API.

A reestruturação estratégica é a história maior. A relação Microsoft–OpenAI vem se esgarçando há meses: a OpenAI assinou o acordo AWS de até US$50 bi, um acordo Oracle, e agora distribui no AWS Bedrock. A Microsoft, segundo relatos, está construindo uma nova oferta de agente movida pelo Claude em vez do GPT, e está investindo na Anthropic e em outros provedores de modelos. A exclusividade que definiu a relação Microsoft–OpenAI de 2019 a 2025 acabou. O que a substitui é distribuição multi-cloud, multi-vendor que se parece mais com o mercado de nuvem dos anos 2010 — três hyperscalers competindo em preço e paridade de features em vez de parcerias exclusivas. A camada de distribuição da IA de fronteira acabou de desacoplar da camada de modelos.

Para os builders, três consequências concretas. Primeiro, se você vinha adiando deploy multi-região ou multi-cloud de features movidas pela OpenAI por causa do lock-in do Azure, o lock-in se foi — deploy nativo na AWS é opção agora. Segundo, o padrão "troca entre Claude e GPT com uma chamada de API" que o Bedrock suporta agora é o ambiente certo de benchmarking: sua aplicação pode rodar testes A/B de modelos de raciocínio de diferentes fornecedores sem mudar de infra. Monte isso antes de se comprometer com um modelo. Terceiro, Bedrock Managed Agents é resposta competitiva ao Agents CLI do Google e ao empurrão MCP da Anthropic — toda nuvem oferece agora uma camada de agente gerenciada. Convergência nessa camada significa que a diferenciação desce para específicos: observabilidade de agente, fronteiras de segurança, pipelines de eval. Escolha a camada de agente da sua nuvem com base no tooling de modos de falha, não no marketing.