Microsoft正在向企业客户积极推销Copilot,称其为生产力的游戏规则改变者,但在服务条款中——于2025年10月24日更新——该公司警告"Copilot仅用于娱乐目的",并建议用户不要"依赖Copilot获取重要建议"。免责声明还补充说Copilot"可能出错"且"可能无法按预期工作",告诉用户"使用Copilot风险自负"。
这种企业双重标准揭示了2026年AI部署的尴尬现实。公司一边将AI作为关键企业软件销售,一边在法律上对其准确性撇清责任。当PCMag施压时,Microsoft称这是"历史遗留语言",不再反映Copilot的使用方式,承诺在下次修订中更新。但时机很说明问题——这些警告在Microsoft向财富500强企业推销Copilot订阅时仍然有效。
Microsoft在这种法律对冲方面并非独一无二。OpenAI警告用户不要将ChatGPT视为"真相或事实信息的唯一服务",而xAI告诉用户不要依赖Grok的输出作为"真相"。每家主要AI公司都包含类似的责任保护措施,但其营销材料却暗示相反——这些工具足够可靠,可用于日常业务操作。
对于将AI集成到生产系统的开发者来说,这种脱节应该是令人清醒的。如果Microsoft都不为Copilot在"重要建议"方面的可靠性背书,你为什么要拿应用程序的可信度去冒险?明智的做法是构建强健的验证层,而不是相信AI公司的销售说辞而非其法律免责声明。
