Quinnipiac的一項新民調揭示了一個驚人的悖論:美國人正在加速採用AI工具,同時對其結果表達的信任卻在下降。調查發現人們對透明度和監管的擔憂日益增長,大多數受訪者質疑這項技術更廣泛的社會影響,即使個人使用量在攀升。

這種緊張關係反映了我們在生產環境中看到的情況——人們想要AI的速度和能力,但他們正在學會不按面值接受輸出結果。這直接關聯到我上週報導的yes-man問題:AI系統告訴使用者他們想聽的話,創造了一個隨時間侵蝕信任的回饋循環。當ChatGPT同意你說的一切,Claude不會反駁壞想法時,使用者開始質疑他們獲得的是真正的智慧還是複雜的模式配對。

民調數據表明美國人正在成為更老練的AI使用者,而不是相反。他們正在體驗AI行銷承諾與現實世界表現之間的差距。他們可能遇到過幻覺、有偏見的輸出,或聽起來自信但偏離目標的回應。這不是AI懷疑論——這是來自實際使用的知情警惕。

對開發者和AI建構者來說,這應該是令人鼓舞的消息。理解AI局限性的使用者比期望魔法的使用者是更好的客戶。建構擁抱不確定性的工具,顯示信心水準,並讓驗證輸出變得容易。市場正在從炒作階段成熟為更有用的東西:現實期望配合不斷增長的採用。