Anthropic与五角大楼的争端已经超越了简单的合同分歧,发展成为AI治理的测试案例。在Anthropic反对其Claude模型的军事用途后,国防部将该公司标记为安全风险,现在双方陷入了相当于AI监管宪政危机的局面。Anthropic坚持其控制技术部署方式的权利,而五角大楼则认为国家安全要求优先于企业AI伦理政策。

这不仅仅关乎一家公司在军事应用上的立场。正如我在三月份报道的,我们正在目睹AI领域不同阵营的形成——那些愿意与国防机构合作的公司,以及那些划定严格界限的公司。Anthropic案例特别重要,因为它涉及一家将整个品牌建立在AI安全和负责任部署基础上的公司。当安全优先的公司与政府要求发生冲突时,暴露了我们当前AI治理框架的根本弱点:对于AI系统一旦部署后谁来控制,我们没有明确的法律先例。

这起争端与我此前报道的OpenAI反弹不同之处在于,Anthropic选择抗争而非悄然妥协。虽然OpenAI面临用户反抗但最终还是继续与五角大楼合作,但Anthropic正在直接挑战政府权威。该公司在法庭上辩称,国防部将其归类为安全风险构成了政府越权,可能为试图维持伦理界限的AI公司设立危险先例。

对于开发者和AI用户来说,这场斗争很重要,因为结果将决定AI公司能否维持独立的部署政策,还是最终必须屈服于政府压力。如果Anthropic败诉,预计其他AI公司会悄悄放弃与国家安全优先事项冲突的伦理限制。