A The New Yorker publicou em 13 de abril um perfil conjunto de 16 mil palavras assinado por Ronan Farrow e Andrew Marantz, que pergunta se dá para confiar em Sam Altman com o futuro. O texto é construído sobre 18 meses de reportagem, cerca de uma dúzia de entrevistas com o próprio Altman, e mais de 100 fontes com conhecimento direto de como ele opera. A citação que mais se destaca vem de um membro do board da OpenAI: Altman está "sem restrições pela verdade", tem "um forte desejo de agradar as pessoas, de ser querido em qualquer interação" junto com "um despreocupar-se quase sociopático com as consequências que podem vir de enganar alguém". É o questionamento público mais substantivo à credibilidade de Altman desde a briga de conselho de novembro de 2023, e aterrissa com documentação em vez de clima.

Farrow e Marantz dizem ter revisado memorandos internos, mais de 200 páginas de documentos, e conversado com insiders atuais e antigos. O que a OpenAI escolheu fazer em resposta merece atenção. Em vez de contestar o texto em bloco, a empresa enviou uma carta a dois procuradores-gerais estaduais dizendo que confia no relato do texto sobre a fundação da empresa e sobre a destituição e reposição de Altman em novembro de 2023. Os advogados de Elon Musk estão agora citando o texto no processo em andamento contra a OpenAI. Essa é uma postura incomum: uma empresa endossando de fato um perfil hostil dentro de uma peça jurídica, o que sugere com força que o núcleo factual é mais difícil de refutar do que o enquadramento narrativo. Você não cita uma matéria que considera fabricada.

Para quem constrói, isso não é um momento de tablóide para rolar a tela. É o registro público mais detalhado até hoje sobre as falhas de governança, os mitos fundadores, e os padrões de comportamento da pessoa que dirige a empresa de infraestrutura de IA mais consequente do mundo. Se você constrói sobre a API da OpenAI, já conhece os riscos práticos: volatilidade dos rate limits, descontinuações de modelo na surdina, movimentos de preço, roadmaps opacos. O que o texto de Farrow adiciona é peso à pergunta subjacente sobre quanto da comunicação pública da OpenAI tomar ao pé da letra: compromissos de segurança, cronogramas de lançamento, alegações sobre capacidade de computação, enquadramento da missão sem fins lucrativos. O texto não responde diretamente a essa pergunta. Eleva a barra probatória para acreditar em qualquer declaração isolada de Altman sem corroboração.

O movimento acionável para quem aposta na OpenAI como infraestrutura é o movimento que você provavelmente já deveria ter feito: não depender de um único provedor de modelo. Camadas de abstração multi-provedor, caminhos de fallback para Anthropic, Google e provedores de pesos abertos, e testes reais lado a lado entre modelos nas suas cargas de trabalho reais, já eram a postura de engenharia certa. O texto de Farrow apenas torna o risco de governança concreto em vez de teórico. Também vale acompanhar o que acontece em seguida dentro da OpenAI: composição do board, independência do time de segurança, e a proporção entre pressão comercial e disciplina de segurança nos próximos releases. Essas coisas vão pesar mais no seu roadmap do que qualquer aparição pública individual de Altman. Leia o texto, orçamente sua confiança de acordo, e mantenha suas camadas de abstração honestas.