Tubi a lancé une app native dans ChatGPT cette semaine, devenant le premier grand service de streaming à s'intégrer directement dans l'interface conversationnelle d'OpenAI. Les utilisateurs peuvent taper « @Tubi » dans ChatGPT et décrire ce qu'ils veulent regarder — « un film qui donne l'impression d'un rêve fiévreux mais qui n'est pas de l'horreur » — et recevoir des résultats sélectionnés du catalogue de 300 000 titres de Tubi avec des liens directs « Watch on Tubi ».
Cette démarche en dit plus sur le problème de découverte de Tubi que sur les capacités de ChatGPT. Quand tu as 300 000 titres et que les utilisateurs décrivent ton expérience de navigation comme « tomber dans un trou de lapin Tubi » ou jouer à la « roulette Tubi », le problème n'est pas l'innovation d'interface — c'est la qualité des recommandations. Le CPO de Tubi, Mike Bidgoli, présente ça comme rejoindre les utilisateurs là où ils décrivent déjà leurs intentions en langage naturel, mais ça suppose que ChatGPT est l'endroit où les gens vont pour leurs décisions de divertissement plutôt que Netflix, YouTube ou TikTok.
L'intégration souligne la maladresse actuelle des écosystèmes d'apps AI. Plutôt qu'une découverte fluide qui comprend l'historique de visionnage et les préférences, les utilisateurs obtiennent un intermédiaire chatbot qui demande des prompts spécifiques et livre des suggestions génériques. Tubi mise sur ChatGPT comme couche de découverte, mais le vrai test c'est de savoir si les gens changent réellement leurs habitudes de divertissement pour s'adapter aux workflows AI.
Pour les développeurs, ça représente la phase précoce et maladroite des apps AI-native — fonctionnelles mais pas particulièrement convaincantes. Le pattern « @mention » fonctionne pour des requêtes spécifiques mais ne remplace pas les moteurs de recommandation intuitifs. Si vous développez des intégrations AI, concentrez-vous sur des problèmes qui bénéficient vraiment d'interfaces conversationnelles plutôt que de forcer des workflows existants dans des chatbots.
