Microsoft這週被當場抓了個現行,使用者注意到Copilot的服務條款直接寫著AI「僅供娛樂目的」並且「可能出錯」,這讓它在「重要建議」方面不可靠。而與此同時Microsoft正在強推Copilot進入Paint、記事本和他們能觸及的每個生產力工具。公司很快改口,說這是「遺留語言」會被更新,但損害已經造成了。
這不只是Microsoft在法律文案上的草率——這是整個AI產業根本矛盾的徹底暴露。公司們在把AI作為革命性生產力工具銷售的同時,法律上卻對這些工具不可避免地產生幻覺、出錯或給出糟糕建議的情況免責。OpenAI警告使用者不要把ChatGPT當作「唯一的真相來源」,xAI說Grok可能「具有冒犯性」或編造事實。然而這些同樣的公司正在推動企業客戶將AI整合到關鍵工作流程中。
Reddit上的反應很殘酷但準確:「如果Microsoft都不信任Copilot,我為什麼要信?」一個使用者指出美國經濟的三分之一投資在了顯然只是娛樂用途的技術上。你不會買一輛帶有「不要信任這個來運輸」免責聲明的汽車,但這正是目前被作為生產力增強器銷售的AI工具所發生的情況。
對開發者和AI建構者來說,這應該是關於責任和期望的警鐘。如果你在生產系統中整合AI,不要依賴供應商的行銷——閱讀他們的實際條款。建構你自己的驗證層,維持人工監督,並設定現實的使用者期望。AI炒作和法律現實之間的脫節短期內不會消失。
