史丹佛最新的AI指數記錄了一個令人擔憂的脫節現象:當AI內部人士推進部署時,公眾對工作崗位替代和經濟破壞的焦慮持續上升。報告顯示,隨著AI系統變得更加強大,人們對醫療保健、就業和經濟穩定的擔憂日益加劇。這延續了我們四月份的報導,顯示對AI監管的信任處於歷史低點,表明建構者和使用者之間的差距並未縮小。
信任危機比公眾民意調查顯示的更深層。來自加州大學聖地牙哥分校的新研究顯示,即使是科學從業者——可以說是技術上最精通的AI使用者之一——對在高風險物理工作中部署AI仍然持深度懷疑態度。接受訪問的科學家涉及從核融合到靈長類認知等各個領域,他們提到了三個關鍵障礙:實驗設置對AI錯誤風險太高、受限環境限制了AI效果,以及AI無法匹配人類的隱性知識。
這種物理世界的猶豫與在數位環境中急於部署AI形成鮮明對比。雖然TrustModel.ai的Karl Mehta認為我們正在重複早期網際網路的安全錯誤,在沒有信任基礎設施的情況下部署AI,但科學家們採取了相反的方法——本質上拒絕部署,直到信任能夠被量化。他們提出的AI應用專注於背景監控和知識組織,而不是直接控制,這表明了一條更謹慎的前進道路。
對於建構AI系統的開發者來說,這項研究突出了數位部署便利性和物理世界採用障礙之間的關鍵差距。未來不是AI在關鍵任務中取代人類專業知識——而是AI作為智慧基礎設施,在高風險環境中增強而不是替代人類判斷。
