Inworld AI lanzó Realtime TTS-2 hoy con la elección arquitectónica que la compañía llama «closed-loop»: en lugar de tratar cada llamada TTS como una generación text-to-audio independiente, el modelo toma el audio del user previo real como input junto al texto a decir, y adapta la prosodia de la voz de salida, el pacing y el contexto emocional para matchear lo que escucha. La generación previa TTS 1.5 rankea #1 en Artificial Analysis Speech Arena a mayo 2026, por encima de Google y ElevenLabs — la señal de credibilidad que vale flaggear porque el framing de Inworld acá es que «la calidad audio cruda es un problema resuelto» y el próximo frontier es la responsividad conversacional. Time-to-first-audio mediano sub-200ms sobre WebSocket, 100+ idiomas con identidad vocal preservada a través de switches de idioma mid-utterance, y tres modos de estabilidad (Expressive, Balanced, Stable) completan la spec sheet. Research preview API-only; sin pesos abiertos.

El mecanismo closed-loop importa más que la latencia o la cuenta de idiomas. Las arquitecturas TTS convencionales tratan cada generación independientemente — texto in, audio out, sin awareness de cómo suena realmente el user en esta conversación. Los builders corriendo agentes de voz tienen que apernar prosody-matching encima con pipelines de análisis separados o vivir con TTS que suena tonalmente mismatched al user. El enfoque de Inworld pliega la adaptación user-audio-aware al modelo mismo: percibe si el user susurra, está excitado, slow-paced, frustrado, y ajusta el output para matchear en la misma conversación. Los detalles arquitectónicos no se divulgan (AR? flow-matching? híbrido?), pero la forma del input es la parte que importa — aceptar audio user crudo como condicionamiento es una elección de diseño no-trivial que empuja al modelo hacia state-tracking conversacional en lugar de text-to-speech turn-by-turn. El voice cloning funciona estándar: clips de referencia de 5-15 segundos generan voice IDs reutilizables vía una API de dos pasos. El claim crosslingual — identidad vocal preservada cuando la misma persona switch mid-utterance de inglés a español — es el tipo de capability que ha sido difícil de shipear de forma confiable y se vuelve cada vez más importante a medida que los voice agents apuntan a bases de customers multilingües.

La lectura ecosystem se empareja naturalmente con el release de Voxtral de Mistral más temprano hoy. Voxtral es open-weights (CC BY-NC 4.0), híbrido AR + flow-matching, deployable en infra del builder, latencia clase-600ms. Inworld TTS-2 es API-only, adaptación conversacional closed-loop, latencia sub-200ms, sin pesos para descargar. Distintos builders van a pickear lados distintos de ese tradeoff: Voxtral para trabajo de voz self-hosted donde controlás la stack, Inworld para agentes de voz en producción donde la feature de adaptación conversacional hace el value-add work. Ambas arquitecturas apuntan al mismo frontier en evolución — los voice agents están moviéndose más allá de «el TTS dice las palabras» hacia «el TTS participa en la conversación». El tandem S2S de Sakana KAME con arquitectura oracle-stream es un tercer punto en la misma curva. La categoría que no existía hace 18 meses ahora está poblada significativamente con competidores arquitectónicamente distintos. El flagship Multilingual v2 de ElevenLabs es el benchmark closed-frontier contra el que todos estos suben.

Movida práctica: si shipeas features voice y la calidad de conversación es la queja del user (en lugar de la calidad audio cruda), Inworld TTS-2 vale un eval side-by-side en los casos de contexto conversacional en los que los providers TTS actuales struggle — arcos emocionales, manejo de repetición, follow-up donde el agente debería mirror la energía del user. El TTFA sub-200ms da un presupuesto de latencia real para casos de uso interactivos. Si el workload del voice agent es one-shot o short-form (notificaciones, IVR, scripts fijos), la ventaja closed-loop no se paga — TTS turn-based sin estado conversacional alcanza. La restricción API-only es la fricción del deal: builders corriendo on-prem o en entornos air-gapped no tienen camino a TTS-2, donde los pesos abiertos de Voxtral siguen siendo la respuesta para ese use case. La elección Inworld vs Voxtral es genuinamente architecture-driven, no solo licensing — pickeá basándote en qué tiene que hacer realmente el voice agent.