OpenAI e Microsoft fecharam a recapitalização hoje, terminando formalmente a era Azure-exclusiva para produtos OpenAI e travando os termos financeiros do novo arranjo. A Microsoft agora detém aproximadamente 27% da OpenAI Group PBC numa base totalmente diluída convertida, avaliada em cerca de US$ 135 bi. A OpenAI se comprometeu a US$ 250 bi adicionais de serviços Azure além dos compromissos existentes, mas a Microsoft perde o direito de primeira recusa de ser a fornecedora de compute da OpenAI; produtos não-API agora podem ser servidos em qualquer nuvem, com produtos API desenvolvidos conjuntamente com terceiros permanecendo exclusivos ao Azure. A licença IP da Microsoft para modelos e produtos OpenAI estende até 2032 mas agora é não-exclusiva, e inclui explicitamente modelos pós-AGI com salvaguardas de segurança. O compartilhamento de receita da OpenAI para Microsoft continua até 2030 sujeito a um teto total. A declaração de AGI sai das mãos do conselho da OpenAI: um painel de especialistas independentes deve verificar qualquer reivindicação de AGI futura antes que os gatilhos contratuais disparem. O quadro foi anunciado em outubro de 2025; hoje é o fechamento formal.
A realidade técnica por trás da manchete é que a era Microsoft-como-gargalo terminou na prática há meses e só agora termina no papel. A OpenAI assinou um acordo de compute AWS de US$ 38 bi no final de 2025, vem servindo discretamente inferência em Oracle Cloud e CoreWeave por mais de um ano, e o desdobramento Stargate sempre ia ultrapassar o que o Azure podia entregar numa arquitetura de nuvem única. O fechamento de 27 de abril é o alinhamento legal com como a distribuição de carga já parecia. A peça genuinamente nova é o número de equity. US$ 135 bi a 27% implica uma avaliação da OpenAI Group em torno de US$ 500 bi, consistente com preços recentes de mercado secundário. A participação da Microsoft é agora a maior posição de equity em qualquer laboratório de IA de fronteira, e combinada com o compromisso Azure de US$ 250 bi, a Microsoft está travada em receita OpenAI e gasto de infraestrutura OpenAI por pelo menos sete anos. O enquadramento disso como Microsoft «perdendo exclusividade» é metade da história; a Microsoft também extraiu um piso de compute de US$ 250 bi e limitou sua saída de compartilhamento de receita, o que no líquido é uma melhor posição comercial que o acordo original de 2019.
A implicação mais ampla, tomada com o Google-Anthropic de US$ 40 bi desta semana e o acordo paralelo AWS-Anthropic, é que a era multi-nuvem de IA de fronteira está agora formalmente travada. Três dos principais laboratórios de fronteira (OpenAI, Anthropic, e crescentemente DeepMind via integração TPU do Google) estão ancorados em dois ou mais hyperscalers cada, com compromissos de compute classe US$ 250 bi tratados como rotina. O lado infraestrutura de IA de fronteira agora parece estruturalmente um duopsônio com três fornecedores (Nvidia, Google TPU, AWS Trainium) e três ou quatro clientes em escala, com o poder de barganha dos clientes aumentando à medida que os termos de exclusividade se desenrolam. A cláusula de painel AGI é o precedente de governança mais interessante: remove o direito unilateral de declarar AGI de um único conselho privado e o submete a um processo de especialistas independentes. Se a composição do painel é significativa ou teatral depende de critérios de seleção ainda não públicos, mas o princípio de remover auto-julgamento de um gatilho contratual deste tamanho é novo e vale a pena seguir como modelo.
Para desenvolvedores, três coisas concretas mudam. Uma: APIs OpenAI estarão disponíveis no AWS Bedrock e outros planos de controle de nuvem em meses, removendo o requisito de roteamento Azure para clientes empresariais que já têm compromissos de nuvem não-Azure. Duas: a permissão open-weight enterrada no novo acordo importa; a OpenAI agora está contratualmente permitida a liberar modelos open-weight que atendam critérios de capacidade, que é a primeira vez desde o GPT-2 que a OpenAI tem cobertura contratual explícita para enviar pesos, mesmo que ainda escolham não fazê-lo. Três: a competição de preço entre Azure-OpenAI, AWS-OpenAI, e API OpenAI direta vai estreitar a margem fornecedor de nuvem que esteve embutida no preço Azure-OpenAI nos últimos três anos; construa sua stack assumindo que a inferência OpenAI vira commodity vendida por múltiplos revendedores nos próximos 12 meses. O estado final de toda essa reestruturação é que a camada de modelo de fronteira e a camada de fornecedor de compute estão agora formalmente desacopladas: você não tem que se comprometer a uma nuvem para usar um modelo, e você não tem que se comprometer a um modelo para usar uma nuvem. Isso é mais saudável para o ecossistema que o que veio antes.
