The New Yorker publicó el 13 de abril un perfil conjunto de 16.000 palabras firmado por Ronan Farrow y Andrew Marantz, que pregunta si se puede confiar en Sam Altman con el futuro. El texto está construido sobre 18 meses de reporteo, alrededor de una docena de entrevistas con el propio Altman y más de 100 fuentes con conocimiento directo de cómo opera. La cita que sobresale viene de un miembro del board de OpenAI: Altman está "sin restricciones por la verdad", posee "un fuerte deseo de agradar a la gente, de ser querido en cualquier interacción dada" junto con "una despreocupación casi sociopática por las consecuencias que pueden derivarse de engañar a alguien". Es el cuestionamiento público más sustantivo sobre la credibilidad de Altman desde la pelea de directorio de noviembre de 2023, y aterriza con documentación en vez de vibra.

Farrow y Marantz dicen que revisaron memos internos, más de 200 páginas de documentos, y hablaron con insiders presentes y pasados. Lo que OpenAI eligió hacer en respuesta merece atención. En lugar de impugnar el texto en su conjunto, la compañía envió una carta a dos fiscales generales estatales diciendo que confía en el relato del texto sobre la fundación de la empresa y la destitución-reinstalación de Altman en noviembre de 2023. Los abogados de Elon Musk están ahora citando el texto en su demanda en curso contra OpenAI. Esa es una postura inusual: una compañía endosando de hecho un perfil hostil en un escrito legal, lo cual sugiere fuertemente que el núcleo fáctico es más difícil de refutar que el encuadre narrativo. No citás un artículo que pensás que es fabricado.

Para los constructores, este no es un momento de tabloide para pasar de largo. Es el registro público más detallado hasta la fecha sobre las fallas de gobernanza, los mitos fundacionales y los patrones de comportamiento de la persona que dirige la compañía de infraestructura de IA más consecuente del mundo. Si construís sobre la API de OpenAI, ya conocés los riesgos prácticos: volatilidad de los rate limits, deprecaciones de modelos en voz baja, movimientos de precios, hojas de ruta opacas. Lo que el texto de Farrow agrega es peso a la pregunta subyacente sobre cuánto de la comunicación pública de OpenAI tomar al pie de la letra: compromisos de seguridad, cronogramas de lanzamiento, afirmaciones sobre capacidad de cómputo, encuadre de la misión sin fines de lucro. El texto no responde directamente esa pregunta. Sube la barra probatoria para creer cualquier declaración individual de Altman sin corroboración.

El movimiento accionable para cualquiera que apueste por OpenAI como infraestructura es el movimiento que probablemente ya deberías haber hecho: no depender de un solo proveedor de modelo. Capas de abstracción multi-proveedor, caminos de respaldo hacia Anthropic, Google y proveedores de pesos abiertos, y testeo real cabeza a cabeza entre modelos sobre tus cargas de trabajo reales, ya eran la postura de ingeniería correcta. El texto de Farrow solo vuelve el riesgo de gobernanza concreto en lugar de teórico. También vale la pena mirar lo que pasa después dentro de OpenAI: la composición del board, la independencia del equipo de seguridad, y la proporción entre presión comercial y disciplina de seguridad en los próximos releases. Esas cosas van a importar más para tu hoja de ruta que cualquier aparición pública individual de Altman. Leé el texto, presupuestá tu confianza en consecuencia, y mantené tus capas de abstracción honestas.