Microsoft正在向企業客戶積極推銷Copilot,稱其為生產力的遊戲規則改變者,但在服務條款中——於2025年10月24日更新——該公司警告「Copilot僅用於娛樂目的」,並建議使用者不要「依賴Copilot獲取重要建議」。免責聲明還補充說Copilot「可能出錯」且「可能無法按預期工作」,告訴使用者「使用Copilot風險自負」。

這種企業雙重標準揭示了2026年AI部署的尷尬現實。公司一邊將AI作為關鍵企業軟體銷售,一邊在法律上對其準確性撇清責任。當PCMag施壓時,Microsoft稱這是「歷史遺留語言」,不再反映Copilot的使用方式,承諾在下次修訂中更新。但時機很說明問題——這些警告在Microsoft向財富500強企業推銷Copilot訂閱時仍然有效。

Microsoft在這種法律對沖方面並非獨一無二。OpenAI警告使用者不要將ChatGPT視為「真相或事實資訊的唯一服務」,而xAI告訴使用者不要依賴Grok的輸出作為「真相」。每家主要AI公司都包含類似的責任保護措施,但其行銷材料卻暗示相反——這些工具足夠可靠,可用於日常業務操作。

對於將AI整合到生產系統的開發者來說,這種脫節應該是令人清醒的。如果Microsoft都不為Copilot在「重要建議」方面的可靠性背書,你為什麼要拿應用程式的可信度去冒險?明智的做法是構建強健的驗證層,而不是相信AI公司的銷售說辭而非其法律免責聲明。