iOS 27, iPadOS 27 y macOS 27 de Apple — que shipean este otoño — dejarán a los users elegir un proveedor AI de terceros como default para las features first-party de Apple Intelligence: Writing Tools, Image Playground y Siri mismo. El mecanismo es un nuevo framework que Apple llama «Extensiones» que deja que servicios AI registrados se enchufen en las superficies a nivel sistema. Claude, Gemini y otros junto a ChatGPT han sido nombrados como los entrantes iniciales obvios. La selección de voz se extiende a Siri — los users escuchan qué AI responde, no solo una voz Apple uniforme. El panel de Ajustes deja al user elegir qué proveedor alimenta cada superficie. El nombre del framework y el timing no son públicos todavía desde Apple, pero las filtraciones son consistentes a través de MacRumors, 9to5Mac, AppleInsider y Verge — esto va a estar en la pipeline de WWDC.

El cambio estructural es de «Apple shipea una sola partnership AI (OpenAI/ChatGPT)» a «Apple shipea una capa de routing curada». La API Extensiones es la palabra clave: los proveedores AI de terceros no obtienen acceso arbitrario a datos de user; registran capabilities (text gen, image gen, voz) que las superficies de sistema de Apple invocan. El modelo de integración es más cerca de cómo las apps default-browser o default-mail funcionan en iOS actual — swap a nivel sistema con Apple todavía controlando la UI y el consent. Lo que Apple se guarda: Foundation Models on-device (clase 3B), fallback private-cloud-compute, y el framing de cada interacción como Apple Intelligence en lugar de la marca de tercero. Los terceros consiguen distribución — placement en Siri, Writing Tools, Image Playground — pero pierden control de la superficie. Para builders corriendo servicios AI, este es un canal iOS real que no existía antes: registrate como Extensión, entrá a la lista de Ajustes, esperá que los users te seleccionen. La brecha de distribución iOS que marqué en el piece App Store 2.5.2 más temprano esta semana acaba de cerrarse parcialmente — pero solo para AI-as-backend-service, no para AI-que-corre-código-arbitrario.

La lectura ecosystem es que Apple traza una línea clara sobre qué tipos de integración AI son bienvenidos. Extensiones para servicios AI backend: sí, curado, system-controlled. Apps vibe-coding que generan código ejecutable en runtime: no, bloqueadas bajo 2.5.2. Las Extensiones de Apple Intelligence tienen users eligiendo proveedores; a los vibe-coders les dicen que shipeen vía web. Las dos políticas son consistentes si las leés como Apple insistiendo en poseer la superficie de integración — AI backend está bien porque Apple controla cuándo y cómo se invoca, pero apps que producen código en runtime quieren poseer el UX y el contexto de ejecución, lo que Apple no va a permitir. Para labs frontier (Anthropic, Google, Mistral, xAI, Cohere), la pregunta inmediata es si invertir en soporte Extensión — el costo de registro es no-trivial pero el alcance de user iOS es significativo. Para builders de apps consumer-AI que se sientan entre users y estos proveedores, la llegada de Extensiones significa que Apple Intelligence se vuelve la capa de routing para users casuales, y tu app tiene que o competir con la integración a nivel sistema o ponerse encima con capabilities que Apple no expone.

Movida práctica: si corrés un servicio AI frontier con alcance consumer, empezá a staffear para soporte Extensiones ahora — WWDC 2026 (junio) probablemente va a surfacear la API real y documentación de desarrollador, y estar en la lista de lanzamiento al ship de iOS 27 importa para share-of-default. Si construís una app consumer AI encima de proveedores API, la diferencia visible-user entre «tu app» y «Apple Intelligence con mi proveedor preferido» se va a estrechar significativamente — tu value-add tiene que ser capabilities que Apple no replica (memoria, workflows custom, persona, orquestación multi-paso) o distribución que Apple no puede proveer (cross-platform, integraciones más profundas). La feature de selección de voz es el detalle dark-horse: users que pueden elegir una voz Claude o una voz Gemini en Siri pueden bien formar lealtad de proveedor alrededor de la personalidad, no solo de la capability — esa es una superficie de marca que no existía antes. Mirá WWDC.