A investigação massiva do The New Yorker sobre Sam Altman pinta um retrato condenatório da liderança da OpenAI justo quando a empresa lançou recomendações de políticas para "manter as pessoas em primeiro lugar" na era da superinteligência. Após entrevistar mais de 100 pessoas familiarizadas com as práticas comerciais de Altman e revisar memorandos internos, os repórteres encontraram um padrão de supostos enganos que levaram o ex-cientista-chefe Ilya Sutskever e o ex-diretor de pesquisa Dario Amodei a concluir que Altman não estava promovendo um ambiente seguro para o desenvolvimento avançado de IA. "O problema com a OpenAI é o próprio Sam", escreveu Amodei em mensagens internas.
Esta investigação chega em um momento crítico quando governos dependem cada vez mais dos modelos da OpenAI e processos judiciais questionam a segurança de sua tecnologia. Um membro do conselho descreveu Altman como tendo "duas características quase nunca vistas na mesma pessoa" — um desejo intenso de agradar pessoas combinado com "falta sociopática de preocupação com as consequências de enganar alguém". O timing é particularmente marcante: a OpenAI simultaneamente alerta sobre sistemas de IA potencialmente fugindo do controle humano enquanto sua própria liderança enfrenta questões sobre confiabilidade e transparência.
Embora o The New Yorker não tenha encontrado uma prova definitiva, o acúmulo de incidentes de múltiplas fontes críveis cria um padrão preocupante. Altman contestou algumas alegações e atribuiu outras à sua natureza de evitar conflitos, mas suas narrativas mutáveis estão se tornando mais difíceis de ignorar conforme a influência da OpenAI cresce. Para desenvolvedores e empresas construindo sobre a infraestrutura da OpenAI, isso levanta questões desconfortáveis sobre se a empresa liderando a corrida da IA pode ser confiável para priorizar segurança sobre crescimento quando esses interesses inevitavelmente entram em conflito.
