Amazon anunció el 28 de abril que el servicio Bedrock de AWS ahora ofrece los últimos modelos de OpenAI, el servicio de codificación Codex y un nuevo producto llamado Bedrock Managed Agents — diseñado específicamente para usar los modelos de razonamiento de OpenAI, con steering de agente y funciones de seguridad incorporadas. El anuncio llegó menos de 24 horas después de que OpenAI terminara públicamente con los derechos de distribución exclusivos de Microsoft sobre sus productos. Los dos anuncios no son casuales: el acuerdo AWS-OpenAI de hasta US$50.000 millones había sido bloqueado por la cláusula de exclusividad de Microsoft, y OpenAI acaba de quitar el bloqueo. El tuit de Andy Jassy ayer — "anuncio muy interesante" — sobre la noticia de Microsoft fue la señal en terreno de que AWS se movía ya.

Bedrock Managed Agents es la pieza más interesante. Bedrock ha sido el servicio de AWS para construir apps de IA y elegir modelos por dos años, pero le faltaba soporte de agente de primera clase específicamente adaptado a los modelos de razonamiento de OpenAI. El nuevo producto posiciona a la serie o de OpenAI como motor de razonamiento por defecto para aplicaciones agentic nativas de AWS. Para los desarrolladores, ésta es la primera vez que se puede construir un agente impulsado por el razonamiento de OpenAI sobre infra de AWS sin pasar por Azure o stacks vLLM auto-hospedadas. La disponibilidad de Codex también importa — trae el modelo de codificación de OpenAI a la misma superficie que el resto de la oferta de Bedrock (Claude, Llama, Titan, Mistral). En Bedrock, ahora podés cambiar entre OpenAI Codex y Anthropic Claude con una sola llamada de API.

La reestructuración estratégica es la historia más grande. La relación Microsoft–OpenAI se viene deshilachando hace meses: OpenAI firmó el acuerdo AWS de hasta US$50.000 millones, un acuerdo Oracle, y ahora distribuye en AWS Bedrock. Microsoft, según reportes, construye una nueva oferta de agente impulsada por Claude en vez de GPT, e invierte en Anthropic y otros proveedores de modelos. La exclusividad que definió la relación Microsoft–OpenAI de 2019 a 2025 terminó. Lo que la reemplaza es distribución multi-cloud, multi-vendor, que se parece más al mercado del cloud de los 2010s — tres hyperscalers compitiendo en precio y paridad de features en vez de partnerships exclusivos. La capa de distribución de la IA de frontera se acaba de desacoplar de la capa de modelos.

Para los builders, tres consecuencias concretas. Primero, si venías demorando el despliegue multi-región o multi-cloud de features impulsadas por OpenAI por el lock-in de Azure, el lock-in se fue — el despliegue nativo en AWS es una opción ahora. Segundo, el patrón "cambiá entre Claude y GPT con una llamada de API" que Bedrock soporta ahora es el ambiente correcto de benchmarking: tu aplicación puede hacer tests A/B de modelos de razonamiento de distintos proveedores sin cambiar la infra. Armalo antes de comprometerte con un modelo. Tercero, Bedrock Managed Agents es una respuesta competitiva al Agents CLI de Google y al empuje MCP de Anthropic — cada cloud ofrece ahora una capa de agente gestionada. La convergencia en esa capa significa que la diferenciación baja a los específicos: observabilidad de agente, fronteras de seguridad, pipelines de eval. Elegí la capa de agente de tu cloud según el tooling de modos de falla, no el marketing.