iOS 27, iPadOS 27 et macOS 27 d'Apple — qui shippent cet automne — laisseront les users choisir un provider AI tiers comme défaut pour les features first-party d'Apple Intelligence : Writing Tools, Image Playground et Siri lui-même. Le mécanisme, c'est un nouveau framework qu'Apple appelle « Extensions » qui laisse les services AI enregistrés se brancher dans les surfaces système. Claude, Gemini et autres aux côtés de ChatGPT ont été nommés comme les entrants initiaux évidents. La sélection de voix s'étend à Siri — les users entendent quel AI répond, pas juste une voix Apple uniforme. Le panneau Réglages laisse l'user choisir quel provider alimente chaque surface. Le nom du framework et le timing ne sont pas publics encore d'Apple, mais les leaks sont consistants à travers MacRumors, 9to5Mac, AppleInsider et Verge — ça va être dans la pipeline WWDC.
Le shift structurel, c'est de « Apple ship une seule partnership AI (OpenAI/ChatGPT) » à « Apple ship une couche de routing curatée ». L'API Extensions est le mot-clé : les providers AI tiers n'obtiennent pas un accès arbitraire aux données user ; ils enregistrent des capabilities (text gen, image gen, voice) que les surfaces système d'Apple invoquent. Le modèle d'intégration est plus proche de la façon dont default-browser ou default-mail apps fonctionnent dans l'iOS actuel — swap au niveau système avec Apple qui contrôle toujours l'UI et le consent. Ce qu'Apple garde pour soi : Foundation Models on-device (classe 3B), fallback private-cloud-compute, et le framing de chaque interaction comme Apple Intelligence plutôt que la brand tierce. Les tiers ont la distribution — placement sur Siri, Writing Tools, Image Playground — mais perdent le contrôle de la surface. Pour les builders qui font tourner des services AI, c'est un vrai canal iOS qui n'existait pas avant : enregistre-toi comme Extension, entre dans la liste Réglages, espère que les users te sélectionnent. Le gap de distribution iOS que j'ai pointé dans le piece App Store 2.5.2 plus tôt cette semaine vient d'être partiellement comblé — mais seulement pour AI-as-backend-service, pas pour AI-qui-run-code-arbitraire.
La lecture ecosystem, c'est qu'Apple trace une ligne claire sur quels types d'intégration AI sont welcome. Extensions pour services AI backend : oui, curaté, system-controlled. Apps vibe-coding qui génèrent du code exécutable au runtime : non, bloquées sous 2.5.2. Apple Intelligence Extensions ont les users qui choisissent les providers ; les vibe-coders se font dire de shipper via web. Les deux politiques sont consistantes si tu les lis comme Apple insistant sur posséder la surface d'intégration — l'AI backend est fine parce qu'Apple contrôle quand et comment c'est invoqué, mais les apps qui produisent du code runtime veulent posséder l'UX et le contexte d'exécution, ce qu'Apple ne va pas permettre. Pour les labs frontier (Anthropic, Google, Mistral, xAI, Cohere), la question immédiate, c'est si investir dans le support Extension — le coût d'enregistrement est non-trivial mais la portée user iOS est significative. Pour les builders d'apps consumer-AI qui sit entre les users et ces providers, l'arrivée d'Extensions veut dire qu'Apple Intelligence devient la couche de routing pour les users casual, et ton app doit soit competer avec l'intégration system-level soit layer par-dessus avec des capabilities qu'Apple n'expose pas.
Move pratique : si tu fais tourner un service AI frontier avec une portée consumer, commence à staffer pour le support Extensions maintenant — WWDC 2026 (juin) va probablement surfacer l'API actuelle et la documentation développeur, et être dans la liste de lancement au ship d'iOS 27 compte pour le share-of-default. Si tu builds une app consumer AI au-dessus de providers API, la différence visible-user entre « ton app » et « Apple Intelligence avec mon provider préféré » va se rétrécir significativement — ta value-add doit être des capabilities qu'Apple ne replique pas (mémoire, workflows custom, persona, orchestration multi-step) ou de la distribution qu'Apple ne peut pas fournir (cross-platform, intégrations plus profondes). La feature de voice-selection, c'est le détail dark-horse : les users qui peuvent choisir une voix Claude ou une voix Gemini sur Siri pourraient bien former une loyauté de provider autour de la personnalité, pas juste de la capability — c'est une surface de brand qui n'existait pas avant. Watch WWDC.
