《纽约客》4 月 13 日刊发了 Ronan Farrow 与 Andrew Marantz 合写的 1 万 6 千字长文,问的是:山姆·奥特曼能不能被托付未来。文章建立在 18 个月的采访之上,包括与奥特曼本人约十二次当面访谈,以及 100 多位对他的运作方式有第一手了解的信源。最醒目的一句引语来自一位 OpenAI 董事会成员:奥特曼"不受真相约束",同时具备"一种强烈的取悦他人、在任何互动中被喜欢的愿望",以及"对欺骗他人可能带来的后果近乎反社会的漠然"。这是 2023 年 11 月董事会风波以来对奥特曼公开信誉最具实质性的质疑,且落地时带着文件,不是情绪。

Farrow 和 Marantz 说,他们查阅了内部备忘录、200 多页的相关文件,并与今昔的内部人士交谈。更值得留意的是 OpenAI 的回应姿态。公司没有对文章整体提出异议,而是向两位州总检察长致信,表示公司采信文章对其创立经过以及 2023 年 11 月奥特曼被罢免又复职那段的描述。马斯克的律师团队现在也在对 OpenAI 的诉讼中援引这篇报道。这是一个罕见的姿态:一家公司实质上在一份司法文件里背书了一篇敌意画像,这强烈表明报道的事实内核比叙事框架更难反驳。一家公司不会去引用它认为是编造出来的报道。

对构建者来说,这不是一个刷过去的花边时刻。这是迄今为止关于运营世界上后果最深远的 AI 基础设施公司那位掌门人的治理失败、创立神话与行为模式的最详尽公开记录。如果你在 OpenAI API 上构建,你已经知道了实际层面的风险:速率限制波动、悄悄的模型弃用、价格调整、路线图不透明。Farrow 这篇报道新增的,是给下面这个根本问题加上份量:OpenAI 公共沟通里有多少应该照字面相信?安全承诺、发布时间表、算力规模声明、非营利使命叙事。文章并未直接回答这个问题。它抬高了"在没有佐证的情况下,相信奥特曼任何一句单独陈述"所需要的证据门槛。

对任何押注 OpenAI 作为基础设施的人,可采取的行动其实就是你早该做的那一步:不要把模型供应商押在一个人身上。多供应商抽象层、能回退到 Anthropic、Google 和开放权重供应商的路径,以及基于你自己真实工作负载的跨模型对比测试,原本就是正确的工程姿态。Farrow 这篇文章只是把原本抽象的治理风险变成了具体的。还值得盯紧的是 OpenAI 接下来内部会发生什么:董事会构成、安全团队的独立性,以及未来几次发布里商业压力与安全纪律之间的比例。这些东西对你的路线图的影响,会比奥特曼任何一场个人公开亮相都大。读完文章,据此重新预算你的信任,让抽象层保持诚实。