Amazon a annoncé le 28 avril que le service Bedrock d'AWS offre maintenant les derniers modèles d'OpenAI, le service de codage Codex, pis un nouveau produit Bedrock Managed Agents — conçu spécifiquement pour utiliser les modèles de raisonnement d'OpenAI, avec du steering d'agent pis des fonctions de sécurité intégrées. L'annonce est arrivée moins de 24 heures après qu'OpenAI ait publiquement mis fin aux droits de distribution exclusifs de Microsoft sur ses produits. Les deux annonces sont pas coïncidentes : l'entente AWS-OpenAI à hauteur de 50 milliards $ avait été bloquée par la clause d'exclusivité de Microsoft, pis OpenAI vient juste d'enlever le blocage. Le tweet d'Andy Jassy hier — « très intéressante annonce » — sur la nouvelle Microsoft, c'était le signal terrain qu'AWS bougeait tout de suite.
Bedrock Managed Agents, c'est la pièce la plus intéressante. Bedrock, c'est le service d'AWS pour bâtir des apps d'IA pis choisir des modèles depuis deux ans, mais il manquait de support d'agent de première classe spécifiquement adapté aux modèles de raisonnement d'OpenAI. Le nouveau produit positionne la série o d'OpenAI comme moteur de raisonnement par défaut pour les applications agentiques natives AWS. Pour les développeurs, c'est la première fois que tu peux bâtir un agent propulsé par le raisonnement OpenAI sur l'infra d'AWS sans passer par Azure ou des stacks vLLM auto-hébergées. La disponibilité de Codex compte aussi — ça amène le modèle de codage d'OpenAI sur la même surface que le reste de l'offre Bedrock (Claude, Llama, Titan, Mistral). Sur Bedrock, tu peux asteure switcher entre OpenAI Codex pis Anthropic Claude avec un seul appel d'API.
La restructuration stratégique, c'est l'histoire plus large. La relation Microsoft–OpenAI s'effrite depuis des mois : OpenAI a signé l'entente AWS jusqu'à 50 milliards $, une entente Oracle, pis distribue maintenant sur AWS Bedrock. Microsoft, selon les rapports, bâtit un nouveau produit d'agent propulsé par Claude plutôt que par GPT, pis investit dans Anthropic pis d'autres fournisseurs de modèles. L'exclusivité qui définissait la relation Microsoft–OpenAI de 2019 à 2025 est terminée. Ce qui la remplace, c'est de la distribution multi-cloud, multi-fournisseurs, qui ressemble plus au marché du cloud des années 2010 — trois hyperscalers en compétition sur le prix pis la parité de features plutôt que des partenariats exclusifs. La couche de distribution de l'IA de pointe vient de se découpler de la couche modèle.
Pour les builders, trois conséquences concrètes. Premièrement, si tu retardais le déploiement multi-régions ou multi-cloud de features propulsées par OpenAI à cause du lock-in Azure, le lock-in est parti — le déploiement natif AWS est une option asteure. Deuxièmement, le pattern « switche entre Claude pis GPT avec un appel d'API » que Bedrock supporte maintenant, c'est le bon environnement de benchmarking : ton application peut faire des tests A/B de modèles de raisonnement de différents fournisseurs sans changer d'infra. Mets ça en place avant de t'engager sur un modèle. Troisièmement, Bedrock Managed Agents, c'est une réponse concurrentielle à Agents CLI de Google pis à la poussée MCP d'Anthropic — chaque cloud offre maintenant une couche d'agent gérée. La convergence à cette couche-là veut dire que la différenciation descend aux spécifiques : observabilité d'agent, frontières de sécurité, pipelines d'éval. Choisis la couche d'agent de ton cloud sur la base du tooling de modes d'échec, pas du marketing.
