阿里巴巴的 Qwen3.5 模型正在證明本地 AI 不需要昂貴的硬體。4B 參數版本在僅有 3.5GB RAM 的老舊筆電上運行流暢,透過 Ollama 的簡單安裝流程即可使用。結合 OpenCode 開發工作流程,使用者可以建構完整的本地 AI 程式編碼助理,無需接觸雲端 API 或投資新硬體。

這很重要,因為它讓 AI 實驗民主化,不再侷限於 GPU 富豪。當所有人都專注於擴展到兆級參數模型時,真正的創新卻在相反方向發生——讓有能力的模型足夠小,能在任何地方運行。4B Qwen3.5 在玩具模型和資源飢渴巨獸之間提供了令人信服的中間地帶,為開發者提供隱私和成本控制,而不會犧牲太多能力。

令人印象深刻的是設定的簡單性:下載 Ollama,執行一個指令,你就有了一個運作的 AI 助理。沒有 Docker 容器,沒有依賴地獄,沒有雲端帳單。這就是真正會被採用的那種摩擦減少。教學專注於實用結果而非技術複雜性,這表明工具已經成熟到足以供主流開發者使用。

對於建構者,這為離線開發、敏感程式碼庫和無 API 成本實驗開闢了新可能性。更重要的是,這提醒我們並非每個 AI 應用都需要最新前沿模型——有時夠好就是真的夠好,尤其是當它帶來零持續成本和完全資料隱私時。