Amazon Web Services va, pour la première fois, revendre les produits OpenAI sur sa plateforme cloud — annoncé un jour après que Microsoft a terminé sa licence commerciale exclusive avec OpenAI. L'exclusivité, établie en 2022 quand Microsoft a investi 10 milliards dans OpenAI, a été l'épine dorsale structurelle de l'alliance OpenAI-Microsoft pendant quatre ans pis la raison pour laquelle Azure était le cloud par défaut pour l'IA d'entreprise de l'ère ChatGPT. Sa termination, c'est la moitié plus conséquente de la nouvelle ; l'annonce du reselling AWS, c'est la conséquence immédiate. La chorégraphie se rattache au tour de financement de 122 milliards d'OpenAI récemment fermé à une valorisation de 852 milliards — le plus gros de l'histoire — dont Amazon s'est engagé à 50 milliards (15 G$ upfront, 35 G$ contingents sur certaines conditions). Les conditions ont pas été divulguées formellement, mais TechRepublic note que terminer l'exclusivité Microsoft pourrait avoir été l'une d'elles, pis intégrer GPT dans Alexa pourrait avoir été une autre.
La structure financière vaut la peine d'être disséquée. L'engagement d'OpenAI, c'est de dépenser 100 milliards de plus sur le calcul AWS en retour — un pattern classique de financement circulaire où l'investissement de 50 G$ d'Amazon est récupéré à travers les dépenses de calcul éventuelles d'OpenAI, avec TechRepublic qui estime un horizon de récupération de cinq ans. Le pattern fait écho aux structures circulaires Nvidia-OpenAI-Microsoft déjà documentées à travers l'industrie : un hyperscaler investit dans un labo frontière, le labo dépense l'investissement de retour sur le calcul hyperscaler, les deux côtés bookent des côtés différents du même argent. L'économie est plus serrée qu'elle paraît : l'entente Oracle de 300 G$ déjà annoncée d'OpenAI (couverte plus tôt dans cette session dans le contexte IPO d'iter #33) plus les engagements de centres de données existants de Microsoft plus les nouveaux 100 G$ d'AWS font une pile d'engagements de calcul qui commence à tester le réalisme de la trajectoire de revenu d'OpenAI. La CFO Sarah Friar a déjà averti à propos des contrats de calcul futurs ; cet engagement AWS de 100 G$ aggrave cette pression plutôt que de la soulager.
Le côté Microsoft de l'histoire, c'est le plus stratégiquement intéressant. Microsoft pis OpenAI grandissent à part depuis au moins 18 mois — Microsoft a investi dans des modèles IA rivaux (Mistral, d'autres), a ajouté Anthropic pis Meta à Azure, pis a tranquillement diversifié son banc d'IA tout en gardant le flagship OpenAI. La termination d'exclusivité formalise ce qui était déjà opérationnellement en marche. La question plus dure, c'est si les milliards d'investissement d'infrastructure IA de Microsoft rapportent encore quand son actif différenciant (la distribution exclusive ChatGPT/GPT) est parti. Les fournisseurs cloud peuvent plus être classés par quel modèle frontière ils hébergent exclusivement parce qu'aucun d'eux n'héberge exclusivement quelque chose : Microsoft a OpenAI/Mistral/Anthropic/Meta ; Amazon a OpenAI/Anthropic/AI21/Stability/Meta ; Google a Gemini/Anthropic. L'annonce d'Anthropic que 100 000+ clients ont accédé à Claude via Amazon Bedrock, c'est le point de données qui a rendu cette restructuration inévitable — quand Anthropic seul bouge autant de charges d'entreprise à travers un seul cloud, l'exclusivité OpenAI arrête d'être une douve défensive viable pour n'importe quel fournisseur unique.
Pour les builders, trois takeaways. Premièrement, le vendor lock-in par modèle frontière vient de devenir matériellement plus faible. Si t'as architecturé tes charges IA autour de « on utilise Azure parce qu'OpenAI est exclusif là », ce calcul-là est maintenant faux ; OpenAI roule sur AWS aussi, vraisemblablement avec des SLAs d'entreprise comparables. Une stratégie IA multi-cloud est maintenant vraiment viable d'une façon qu'elle l'était pas il y a 24 heures, pis tu devrais reconsidérer si ton engagement IA single-cloud est encore optimal. Deuxièmement, la structure circulaire 50 G$ Amazon / 100 G$ calcul OpenAI, c'est le pattern de financement dominant de l'ère de l'infrastructure IA — ça vaut la peine de comprendre parce que ça apparaît partout (Oracle-OpenAI 300 G$, boucles d'investissement Nvidia-OpenAI, l'entente Microsoft originale). La question à demander à propos de n'importe quelle nouvelle méga-entente, c'est « où va vraiment l'argent ? » — habituellement direct retour au business cloud ou puce de l'investisseur lui-même. Troisièmement, le positionnement d'Anthropic vient de devenir plus fort. Avec OpenAI maintenant distribué à travers les trois hyperscalers, le partenariat Amazon plus profond d'Anthropic (pis les 100 000 clients Bedrock) devient un différenciateur plus clair : Claude roule principalement sur AWS, pis AWS a maintenant à la fois Claude pis GPT, mais la profondeur de l'intégration AWS-Anthropic (silicium, SDK, recherche d'alignement) est structurellement différente de la relation reseller AWS-OpenAI. Si tu choisis un partenaire de modèle frontière primaire, « avec qui le cloud s'intègre vraiment profondément versus juste revend » est maintenant la question pertinente.
