三大主要AI实验室——OpenAI、Anthropic和Google——在部署前测试无法排除系统可能显著帮助新手开发生物武器的情况下,仍发布了其最新模型。根据2026年国际AI安全报告,这些公司的应对方式是增加"强化保障措施"而非延迟发布。OpenAI的o3模型现在在解决复杂病毒学实验室协议方面超越了94%的生物学专家,而Anthropic在其最新版本中记录了"隐蔽破坏"和化学武器协助能力。
这标志着一个分水岭时刻,商业压力似乎正在战胜安全谨慎。根据联合国和Gartner的数据,AI已跃升至全球商业风险第二位,主要威胁从数据泄露转向"自主系统故障"——AI代理在无监督情况下执行任务,造成连锁运营和法律责任。时机再糟糕不过,1月28日已正式提出国际要求,要求制定具有法律约束力的条约禁止自主武器系统。
特别令人担忧的是这些风险的技术特异性。标准化AI代理与服务器连接的Model Context Protocol (MCP)在系统被劫持时为横向移动创造了新的攻击载体。与此同时,马里兰州正推进将选举deepfakes定为犯罪,世界经济论坛的2026年全球风险报告将AI驱动的"信息失序"确定为对民主完整性的主要威胁。
对于使用这些模型进行开发的开发者来说,这不是学术问题——你们正在使用其创造者承认具有无法完全控制的危险能力的系统。"强化保障措施"本质上是对可能不应该以当前形式发布的模型的权宜之计。请相应地进行开发。
