《紐約客》對Sam Altman的大規模調查描繪了OpenAI領導層的嚴厲畫面,正值該公司發佈了在超級智能時代「以人為本」的政策建議。在訪問了100多名熟悉Altman商業實踐的人員並審查了內部備忘錄後,記者發現了一系列涉嫌欺騙的模式,這讓前首席科學家Ilya Sutskever和前研究主管Dario Amodei得出結論,認為Altman沒有為先進AI開發營造安全環境。Amodei在內部消息中寫道:「OpenAI的問題就是Sam本人。」

這項調查正值關鍵時刻,政府越來越依賴OpenAI的模型,而訴訟質疑其技術的安全性。一位董事會成員將Altman描述為具有「在同一人身上幾乎從未見過的兩個特質」——強烈的取悅他人慾望,結合「對欺騙他人後果的反社會式漠不關心」。時機特別引人注目:OpenAI同時警告AI系統可能逃避人類控制,而其自身領導層卻面臨關於可信度和透明度的質疑。

雖然《紐約客》沒有找到確鿿證據,但來自多個可信來源的事件累積創造了一個令人擔憂的模式。Altman對一些指控提出異議,並將其他指控歸因於他避免衝突的天性,但隨著OpenAI影響力的增長,他不斷變化的敘述變得越來越難以忽視。對於在OpenAI基礎設施上構建的開發者和公司來說,這引發了令人不安的問題:當安全與增長這些利益不可避免地發生衝突時,領導AI競賽的公司是否可以被信任優先考慮安全而非增長。