Onix a été lancé cette semaine comme un « Substack pour chatbots », offrant des clones IA d'influenceurs santé et bien-être avec lesquels les abonnés peuvent discuter pour obtenir des conseils personnalisés. Fondée par l'ancien contributeur de WIRED David Bennahum, cette startup canadienne promet de résoudre les problèmes centraux de l'IA — hallucinations, confidentialité et rémunération des créateurs — en entraînant les bots exclusivement sur du contenu fourni par des experts et en stockant les données utilisateur localement avec chiffrement. Les utilisateurs s'abonnent à des bots « Onix » individuels plutôt que d'accéder à des modèles IA génériques.

Le timing reflète un virage plus large vers des agents IA spécialisés qui vivent dans des contextes spécifiques — de l'IA de The Nudge qui texte des plans de fin de semaine aux bots de thérapie dispensant des conseils de santé mentale. Mais l'approche d'Onix expose la tension fondamentale dans la monétisation de l'expertise humaine par l'IA : comment maintenir l'authenticité tout en augmentant l'échelle à l'infini ? Le modèle par abonnement tente de recréer la rareté et la connexion personnelle de la consultation humaine, mais au prix point toujours disponible de l'IA.

Les tests ont révélé que les garde-fous d'Onix relèvent plus du marketing que de la réalité. Quand on lui a demandé de discuter des playoffs NBA, un bot de thérapie a qualifié le changement de sujet de « changement de rythme amusant » et a halluciné sur les finales de conférence de l'année dernière. Un autre bot discutant de thérapie à la kétamine a facilement été détourné vers une analyse de rupture de groupe indie, bien qu'il ait essayé de reconnecter la conversation à la « neurobiologie en détresse ». Ces échecs soulignent pourquoi construire une IA fiable et spécifique au domaine reste incroyablement difficile — même avec des modèles entraînés par des experts et des limites de conversation supposées.

Pour les développeurs, Onix démontre à la fois la demande du marché pour une IA personnalisée et l'écart entre promesse et performance. L'approche de stockage local est intéressante pour les applications soucieuses de confidentialité, mais les échecs de garde-fous suggèrent que contraindre le comportement de l'IA nécessite des techniques plus sophistiquées que l'entraînement sur du contenu curé. Jusqu'à ce qu'on résolve l'alignement fiable de l'IA au niveau conversationnel, les bots d'experts par abonnement restent une façon coûteuse d'obtenir des conseils peu fiables.