Le New Yorker a publié le 13 avril un portrait conjoint de 16 000 mots signé Ronan Farrow pis Andrew Marantz, qui demande si on peut faire confiance à Sam Altman avec le futur. Le texte est bâti sur 18 mois de reportage, environ une douzaine d'entrevues avec Altman lui-même, pis plus de 100 sources qui ont une connaissance directe de la façon dont il opère. La citation qui ressort vient d'un membre du conseil d'OpenAI : Altman est « sans contrainte par rapport à la vérité », avec « un fort désir de plaire aux gens, d'être aimé dans n'importe quelle interaction » doublé d'« une absence presque sociopathique de préoccupation pour les conséquences qui peuvent découler de tromper quelqu'un ». C'est la remise en question publique la plus substantielle de la crédibilité d'Altman depuis la bataille de conseil de novembre 2023, pis ça atterrit avec de la documentation plutôt qu'avec du vent.
Farrow pis Marantz disent avoir examiné des notes internes, plus de 200 pages de documents, pis parlé à des initiés passés pis présents. Ce qu'OpenAI a choisi de faire en réponse mérite qu'on y prête attention. Plutôt que de contester le texte en bloc, la compagnie a envoyé une lettre à deux procureurs généraux d'État disant qu'elle fait confiance au récit de la fondation de l'entreprise pis de l'éviction-réinstallation d'Altman en novembre 2023. Les avocats d'Elon Musk citent maintenant le texte dans sa poursuite en cours contre OpenAI. C'est une posture inhabituelle : une compagnie qui endosse de fait un portrait hostile dans une procédure judiciaire, ce qui suggère fortement que le cœur factuel est plus dur à réfuter que le cadrage narratif. Tu cites pas un papier que tu penses fabriqué.
Pour les constructeurs, c'est pas un moment tabloïd à scroller. C'est le dossier public le plus détaillé à ce jour sur les défaillances de gouvernance, les mythes fondateurs, pis les patterns de comportement de la personne qui dirige la compagnie d'infrastructure IA la plus conséquente au monde. Si tu construis sur l'API d'OpenAI, tu connais déjà les risques pratiques : volatilité des limites de taux, déprécations de modèles en douce, changements de prix, feuilles de route opaques. Ce que le papier de Farrow ajoute, c'est du poids à la question sous-jacente : combien de la communication publique d'OpenAI faut-il prendre au pied de la lettre ? Les engagements de sécurité, les échéanciers de sortie, les prétentions sur la capacité de calcul, le cadrage de la mission à but non lucratif. Le papier répond pas directement à cette question. Il relève la barre probatoire pour croire n'importe quelle déclaration individuelle d'Altman sans corroboration.
Le geste actionnable pour quiconque mise sur OpenAI comme infrastructure, c'est le geste que tu aurais probablement déjà dû poser : ne pas dépendre d'un seul fournisseur de modèle. Les couches d'abstraction multi-fournisseurs, les chemins de repli vers Anthropic, Google, pis les fournisseurs à poids ouverts, pis des tests réels côte à côte entre modèles sur tes vraies charges de travail, c'était déjà la bonne posture d'ingénierie. Le papier de Farrow rend juste le risque de gouvernance concret plutôt que théorique. Ça vaut aussi la peine de surveiller ce qui se passe ensuite à l'intérieur d'OpenAI : la composition du conseil, l'indépendance de l'équipe sécurité, pis le ratio entre pression commerciale pis discipline de sécurité dans les prochaines sorties. Ces affaires-là vont compter plus pour ta feuille de route que n'importe quelle apparition publique d'Altman. Lis le papier, budgétise ta confiance en conséquence, pis garde tes couches d'abstraction honnêtes.
