La investigación masiva de The New Yorker sobre Sam Altman pinta un cuadro condenatorio del liderazgo de OpenAI justo cuando la empresa lanzó recomendaciones de políticas para "mantener a las personas primero" en la era de la superinteligencia. Después de entrevistar a más de 100 personas familiarizadas con las prácticas comerciales de Altman y revisar memorandos internos, los reporteros encontraron un patrón de supuestos engaños que llevaron al ex científico jefe Ilya Sutskever y al ex director de investigación Dario Amodei a concluir que Altman no estaba fomentando un ambiente seguro para el desarrollo avanzado de IA. "El problema con OpenAI es Sam mismo", escribió Amodei en mensajes internos.

Esta investigación llega en un momento crítico cuando los gobiernos dependen cada vez más de los modelos de OpenAI y las demandas desafían la seguridad de su tecnología. Un miembro de la junta directiva describió a Altman como teniendo "dos rasgos que casi nunca se ven en la misma persona" — un deseo intenso de complacer a la gente combinado con "falta sociópata de preocupación por las consecuencias de engañar a alguien". El momento es particularmente llamativo: OpenAI advierte simultáneamente sobre sistemas de IA que potencialmente podrían evadir el control humano mientras su propio liderazgo enfrenta preguntas sobre confiabilidad y transparencia.

Aunque The New Yorker no encontró una pistola humeante, la acumulación de incidentes de múltiples fuentes creíbles crea un patrón preocupante. Altman disputó algunas afirmaciones y atribuyó otras a su naturaleza de evitar conflictos, pero sus narrativas cambiantes se vuelven más difíciles de ignorar mientras crece la influencia de OpenAI. Para desarrolladores y empresas construyendo sobre la infraestructura de OpenAI, esto plantea preguntas incómodas sobre si la empresa que lidera la carrera de IA puede ser confiable para priorizar la seguridad sobre el crecimiento cuando esos intereses inevitablemente entran en conflicto.