Apple 的 iOS 27、iPadOS 27 和 macOS 27 — 這個秋天 ship — 將讓使用者為 Apple Intelligence 的 first-party 功能(Writing Tools、Image Playground 和 Siri 本身)選擇第三方 AI 提供商作為預設。機制是 Apple 稱為「Extensions」的新框架,讓註冊的 AI 服務接入系統級表面。Claude、Gemini 與 ChatGPT 一起被點名為明顯的初始進入者。聲音選擇擴展到 Siri — 使用者聽到是哪個 AI 在回答,而不是統一的 Apple 聲音。設定面板讓使用者選擇哪個提供商驅動每個表面。框架名和時間表 Apple 還沒公開,但來自 MacRumors、9to5Mac、AppleInsider 和 Verge 的洩漏一致 — 這會在 WWDC 管線裡。

結構性轉變是從「Apple ship 單一 AI 合作(OpenAI/ChatGPT)」到「Apple ship 一個有策展的路由層」。Extensions API 是關鍵詞:第三方 AI 提供商不會獲得對使用者資料的任意存取;它們註冊能力(文字生成、圖像生成、語音)讓 Apple 的系統表面調用。整合模型更接近 default-browser 或 default-mail apps 在當前 iOS 中的工作方式 — 系統級交換,Apple 仍然控制 UI 和 consent。Apple 自己保留的:on-device Foundation Models(3B 類)、private-cloud-compute fallback、把每次互動框架化為 Apple Intelligence 而不是第三方品牌。第三方獲得分發 — Siri、Writing Tools、Image Playground 上的 placement — 但失去對表面的控制。對運行 AI 服務的 builder,這是一個之前不存在的真實 iOS 渠道:註冊為 Extension,進入設定列表,希望使用者選擇你。我在本週早些時候 App Store 2.5.2 piece 中點出的 iOS 分發差距剛剛被部分填補 — 但只為 AI-as-backend-service,不為 AI-that-runs-arbitrary-code。

生態讀法是 Apple 在畫一條關於哪些類型的 AI 整合被歡迎的清晰界線。後端 AI 服務的 Extensions:是,有策展、系統控制。生成可執行程式碼 at runtime 的 vibe-coding apps:否,在 2.5.2 下被封。Apple Intelligence Extensions 讓使用者選擇提供商;vibe-coders 被告知透過 web shipping。如果你把這兩個政策讀為 Apple 堅持擁有整合表面,它們就一致 — 後端 AI 沒問題因為 Apple 控制何時和如何調用它,但產生 runtime 程式碼的 apps 想擁有 UX 和執行上下文,這是 Apple 不會允許的。對前沿 labs(Anthropic、Google、Mistral、xAI、Cohere),即時問題是是否投入 Extension 支援 — 註冊成本不容小覷但 iOS 使用者基礎覆蓋意義重大。對坐在使用者和這些提供商之間的 consumer-AI app builder,Extensions 到來意味著 Apple Intelligence 成為休閒使用者的路由層,你的 app 必須要麼與系統級整合競爭,要麼基於它疊加 Apple 不暴露的能力。

實際動作:如果你運行有 consumer 覆蓋的前沿 AI 服務,現在就開始為 Extensions 支援配人 — WWDC 2026(6 月)可能會浮現實際 API 和開發者文件,在 iOS 27 ship 時進入發布名單對 share-of-default 有意義。如果你在 API 提供商之上構建 consumer AI app,「你的 app」與「Apple Intelligence with 我偏好的提供商」之間的使用者可見差異會顯著縮窄 — 你的 value-add 必須是 Apple 不複製的能力(記憶、自訂工作流、persona、多步編排)或 Apple 無法提供的分發(跨平台、更深整合)。語音選擇功能是黑馬細節:能在 Siri 上選 Claude 聲音或 Gemini 聲音的使用者很可能形成圍繞個性而不僅是能力的提供商忠誠 — 那是一個之前不存在的品牌表面。看 WWDC。