《纽约客》对Sam Altman的大规模调查描绘了OpenAI领导层的严厉画面,正值该公司发布了在超级智能时代"以人为本"的政策建议。在采访了100多名熟悉Altman商业实践的人员并审查了内部备忘录后,记者发现了一系列涉嫌欺骗的模式,这让前首席科学家Ilya Sutskever和前研究主管Dario Amodei得出结论,认为Altman没有为先进AI开发营造安全环境。Amodei在内部消息中写道:"OpenAI的问题就是Sam本人。"
这项调查正值关键时刻,政府越来越依赖OpenAI的模型,而诉讼质疑其技术的安全性。一位董事会成员将Altman描述为具有"在同一人身上几乎从未见过的两个特质"——强烈的取悦他人欲望,结合"对欺骗他人后果的反社会式漠不关心"。时机特别引人注目:OpenAI同时警告AI系统可能逃避人类控制,而其自身领导层却面临关于可信度和透明度的质疑。
虽然《纽约客》没有找到确凿证据,但来自多个可信来源的事件累积创造了一个令人担忧的模式。Altman对一些指控提出异议,并将其他指控归因于他避免冲突的天性,但随着OpenAI影响力的增长,他不断变化的叙述变得越来越难以忽视。对于在OpenAI基础设施上构建的开发者和公司来说,这引发了令人不安的问题:当安全与增长这些利益不可避免地发生冲突时,领导AI竞赛的公司是否可以被信任优先考虑安全而非增长。
