Apple 的 iOS 27、iPadOS 27 和 macOS 27 — 这个秋天 ship — 将让用户为 Apple Intelligence 的 first-party 功能(Writing Tools、Image Playground 和 Siri 本身)选择第三方 AI 提供商作为默认。机制是 Apple 称为「Extensions」的新框架,让注册的 AI 服务接入系统级表面。Claude、Gemini 与 ChatGPT 一起被点名为明显的初始进入者。声音选择扩展到 Siri — 用户听到是哪个 AI 在回答,而不是统一的 Apple 声音。设置面板让用户选择哪个提供商驱动每个表面。框架名和时间表 Apple 还没公开,但来自 MacRumors、9to5Mac、AppleInsider 和 Verge 的泄漏一致 — 这会在 WWDC 管线里。
结构性转变是从「Apple ship 单一 AI 合作(OpenAI/ChatGPT)」到「Apple ship 一个有策展的路由层」。Extensions API 是关键词:第三方 AI 提供商不会获得对用户数据的任意访问;它们注册能力(文本生成、图像生成、语音)让 Apple 的系统表面调用。集成模型更接近 default-browser 或 default-mail apps 在当前 iOS 中的工作方式 — 系统级交换,Apple 仍然控制 UI 和 consent。Apple 自己保留的:on-device Foundation Models(3B 类)、private-cloud-compute fallback、把每次互动框架化为 Apple Intelligence 而不是第三方品牌。第三方获得分发 — Siri、Writing Tools、Image Playground 上的 placement — 但失去对表面的控制。对运行 AI 服务的 builder,这是一个之前不存在的真实 iOS 渠道:注册为 Extension,进入设置列表,希望用户选择你。我在本周早些时候 App Store 2.5.2 piece 中点出的 iOS 分发差距刚刚被部分填补 — 但只为 AI-as-backend-service,不为 AI-that-runs-arbitrary-code。
生态读法是 Apple 在画一条关于哪些类型的 AI 集成被欢迎的清晰界线。后端 AI 服务的 Extensions:是,有策展、系统控制。生成可执行代码 at runtime 的 vibe-coding apps:否,在 2.5.2 下被封。Apple Intelligence Extensions 让用户选择提供商;vibe-coders 被告知通过 web shipping。如果你把这两个政策读为 Apple 坚持拥有集成表面,它们就一致 — 后端 AI 没问题因为 Apple 控制何时和如何调用它,但产生 runtime 代码的 apps 想拥有 UX 和执行上下文,这是 Apple 不会允许的。对前沿 labs(Anthropic、Google、Mistral、xAI、Cohere),即时问题是是否投入 Extension 支持 — 注册成本不容小觑但 iOS 用户基础覆盖意义重大。对坐在用户和这些提供商之间的 consumer-AI app builder,Extensions 到来意味着 Apple Intelligence 成为休闲用户的路由层,你的 app 必须要么与系统级集成竞争,要么基于它叠加 Apple 不暴露的能力。
实际动作:如果你运行有 consumer 覆盖的前沿 AI 服务,现在就开始为 Extensions 支持配人 — WWDC 2026(6 月)可能会浮现实际 API 和开发者文档,在 iOS 27 ship 时进入发布名单对 share-of-default 有意义。如果你在 API 提供商之上构建 consumer AI app,「你的 app」与「Apple Intelligence with 我偏好的提供商」之间的用户可见差异会显著缩窄 — 你的 value-add 必须是 Apple 不复制的能力(记忆、自定义工作流、persona、多步编排)或 Apple 无法提供的分发(跨平台、更深集成)。语音选择功能是黑马细节:能在 Siri 上选 Claude 声音或 Gemini 声音的用户很可能形成围绕个性而不仅是能力的提供商忠诚 — 那是一个之前不存在的品牌表面。看 WWDC。
