OpenAI et Microsoft ont fermé la recapitalisation aujourd'hui, mettant formellement fin à l'ère Azure-exclusive pour les produits OpenAI et verrouillant les termes financiers du nouvel arrangement. Microsoft détient maintenant environ 27 % d'OpenAI Group PBC sur une base de conversion entièrement diluée, valorisé à environ 135 G$. OpenAI s'est engagée à 250 G$ supplémentaires de services Azure en plus des engagements existants, mais Microsoft perd le droit de premier refus pour être le fournisseur de compute d'OpenAI; les produits non-API peuvent maintenant être servis sur n'importe quel cloud, les produits API développés conjointement avec des tiers restant exclusifs à Azure. La licence IP de Microsoft sur les modèles et produits OpenAI s'étend jusqu'en 2032 mais est maintenant non-exclusive, et inclut explicitement les modèles post-AGI avec des garde-fous de sécurité. Le partage de revenus d'OpenAI vers Microsoft continue jusqu'en 2030 sous réserve d'un plafond total. La déclaration AGI sort des mains du conseil d'OpenAI : un panel d'experts indépendants doit vérifier toute revendication AGI future avant que les déclencheurs contractuels ne se déclenchent. Le cadre a été annoncé en octobre 2025; aujourd'hui c'est la fermeture formelle.
La réalité technique derrière le titre est que l'ère Microsoft-comme-goulot a pris fin en pratique il y a des mois et ne fait que finir sur papier maintenant. OpenAI a signé un contrat compute AWS de 38 G$ fin 2025, sert tranquillement de l'inférence sur Oracle Cloud et CoreWeave depuis plus d'un an, et le déploiement Stargate allait toujours dépasser ce qu'Azure pouvait livrer dans une architecture mono-cloud. La fermeture du 27 avril est l'alignement légal avec ce à quoi la distribution de charge ressemblait déjà. La pièce vraiment nouvelle est le chiffre d'équité. 135 G$ à 27 % implique une valorisation OpenAI Group autour de 500 G$, cohérente avec les prix récents du marché secondaire. La part de Microsoft est maintenant la plus grande position d'équité dans n'importe quel labo IA de pointe, et combinée à l'engagement Azure de 250 G$, Microsoft est verrouillée dans les revenus OpenAI et les dépenses d'infrastructure OpenAI pour au moins sept ans. Le cadrage de ceci comme Microsoft « perdant l'exclusivité » est la moitié de l'histoire; Microsoft a aussi extrait un plancher compute de 250 G$ et plafonné sa sortie de partage de revenus, ce qui en net est une meilleure position commerciale que l'accord original de 2019.
L'implication plus large, prise avec le 40 G$ Google-Anthropic de cette semaine et l'accord parallèle AWS-Anthropic, est que l'ère multi-cloud de l'IA de pointe est maintenant formellement verrouillée. Trois des labos de pointe (OpenAI, Anthropic, et de plus en plus DeepMind via l'intégration TPU de Google) sont ancrés à deux hyperscalers ou plus chacun, avec des engagements compute de classe 250 G$ traités comme routine. Le côté infrastructure de l'IA de pointe ressemble maintenant structurellement à un duopsone avec trois fournisseurs (Nvidia, Google TPU, AWS Trainium) et trois ou quatre clients à grande échelle, avec le pouvoir de négociation des clients qui augmente à mesure que les termes d'exclusivité se déroulent. La clause panel AGI est le précédent de gouvernance le plus intéressant : elle retire le droit unilatéral de déclarer l'AGI d'un seul conseil privé et le soumet à un processus d'experts indépendants. Si la composition du panel est significative ou théâtrale dépend de critères de sélection pas encore publics, mais le principe de retirer l'auto-jugement d'un déclencheur contractuel de cette taille est nouveau et vaut la peine d'être suivi comme modèle.
Pour les développeurs, trois choses concrètes changent. Un : les API OpenAI deviendront disponibles sur AWS Bedrock et d'autres plans de contrôle cloud dans les mois à venir, supprimant l'exigence de routage Azure pour les clients entreprise qui ont déjà des engagements cloud non-Azure. Deux : la permission open-weight enfouie dans le nouvel accord compte; OpenAI est maintenant contractuellement permise de publier des modèles open-weight qui répondent aux critères de capacité, ce qui est la première fois depuis GPT-2 qu'OpenAI a une couverture contractuelle explicite pour livrer des poids, même s'ils choisissent toujours de ne pas le faire. Trois : la concurrence de prix entre Azure-OpenAI, AWS-OpenAI, et l'API OpenAI directe va resserrer la marge fournisseur cloud qui a été cuite dans le prix Azure-OpenAI pendant les trois dernières années; bâtis ta pile en supposant que l'inférence OpenAI devient une commodité vendue par plusieurs revendeurs dans les 12 prochains mois. L'état final de toute cette restructuration est que la couche modèle de pointe et la couche fournisseur compute sont maintenant formellement découplées : tu n'as pas à t'engager à un cloud pour utiliser un modèle, et tu n'as pas à t'engager à un modèle pour utiliser un cloud. C'est plus sain pour l'écosystème que ce qui était avant.
