Microsoft这周被当场抓了个现行,用户注意到Copilot的服务条款直接写着AI"仅供娱乐目的"并且"可能出错",这让它在"重要建议"方面不可靠。而与此同时Microsoft正在强推Copilot进入Paint、记事本和他们能触及的每个生产力工具。公司很快改口,说这是"遗留语言"会被更新,但损害已经造成了。

这不只是Microsoft在法律文案上的草率——这是整个AI行业根本矛盾的彻底暴露。公司们在把AI作为革命性生产力工具销售的同时,法律上却对这些工具不可避免地产生幻觉、出错或给出糟糕建议的情况免责。OpenAI警告用户不要把ChatGPT当作"唯一的真相来源",xAI说Grok可能"具有冒犯性"或编造事实。然而这些同样的公司正在推动企业客户将AI集成到关键工作流程中。

Reddit上的反应很残酷但准确:"如果Microsoft都不信任Copilot,我为什么要信?"一个用户指出美国经济的三分之一投资在了显然只是娱乐用途的技术上。你不会买一辆带有"不要信任这个来运输"免责声明的汽车,但这正是目前被作为生产力增强器销售的AI工具所发生的情况。

对开发者和AI构建者来说,这应该是关于责任和期望的警钟。如果你在生产系统中集成AI,不要依赖供应商的营销——阅读他们的实际条款。构建你自己的验证层,维持人工监督,并设定现实的用户期望。AI炒作和法律现实之间的脱节短期内不会消失。