Onix本週推出,定位為「chatbot界的Substack」,提供健康和養生網紅的AI複製品,訂閱用戶可以與其聊天獲得個人化建議。這家加拿大新創公司由前WIRED撰稿人David Bennahum創立,承諾透過專門用專家提供的內容訓練bot並在本地加密儲存用戶資料來解決AI的核心問題——幻覺、隱私和創作者補償。用戶訂閱單個「Onix」bot而非存取通用AI模型。

這個時機反映了向特定情境專業AI代理的更廣泛轉變——從The Nudge發送週末計劃的AI到提供心理健康建議的治療bot。但Onix的方式暴露了透過AI將人類專業知識貨幣化的根本矛盾:如何在無限擴展的同時保持真實性?訂閱模式試圖重現人工諮詢的稀缺性和個人連結,但價格卻是AI的永遠在線水準。

測試顯示Onix的防護措施更多是行銷而非現實。當被要求討論NBA季後賽時,一個治療bot稱話題轉換為「有趣的節奏變化」並對去年的分區決賽產生了幻覺。另一個討論ketamine治療的bot輕易被引導到獨立樂團分手分析,儘管它試圖將對話重新連接到「痛苦中的神經生物學」。這些失敗突顯了為什麼建構可靠的特定領域AI仍然極其困難——即使使用專家訓練的模型和假定的對話邊界。

對開發者而言,Onix既展示了個人化AI的市場需求,也顯示了承諾與表現之間的差距。本地儲存方式對注重隱私的應用有趣,但防護失敗表明約束AI行為需要比基於精選內容訓練更複雜的技術。在我們解決對話級別的可靠AI對齊之前,訂閱式專家bot仍然是獲得不可靠建議的昂貴方式。