斯坦福最新的AI指数记录了一个令人担忧的脱节现象:当AI内部人士推进部署时,公众对工作岗位替代和经济破坏的焦虑持续上升。报告显示,随着AI系统变得更加强大,人们对医疗保健、就业和经济稳定的担忧日益加剧。这延续了我们四月份的报道,显示对AI监管的信任处于历史低点,表明构建者和用户之间的差距并未缩小。

信任危机比公众民意调查显示的更深层。来自加州大学圣地亚哥分校的新研究显示,即使是科学从业者——可以说是技术上最精通的AI用户之一——对在高风险物理工作中部署AI仍然持深度怀疑态度。接受采访的科学家涉及从核聚变到灵长类认知等各个领域,他们提到了三个关键障碍:实验设置对AI错误风险太高、受限环境限制了AI效果,以及AI无法匹配人类的隐性知识。

这种物理世界的犹豫与在数字环境中急于部署AI形成鲜明对比。虽然TrustModel.ai的Karl Mehta认为我们正在重复早期互联网的安全错误,在没有信任基础设施的情况下部署AI,但科学家们采取了相反的方法——本质上拒绝部署,直到信任能够被量化。他们提出的AI应用专注于后台监控和知识组织,而不是直接控制,这表明了一条更谨慎的前进道路。

对于构建AI系统的开发者来说,这项研究突出了数字部署便利性和物理世界采用障碍之间的关键差距。未来不是AI在关键任务中取代人类专业知识——而是AI作为智能基础设施,在高风险环境中增强而不是替代人类判断。