Onix se lanzó esta semana como un "Substack para chatbots", ofreciendo clones de IA de influencers de salud y bienestar con los que los suscriptores pueden chatear para obtener consejos personalizados. Fundada por el ex colaborador de WIRED David Bennahum, esta startup con base en Canadá promete resolver los problemas centrales de la IA —alucinaciones, privacidad y compensación de creadores— entrenando bots exclusivamente con contenido proporcionado por expertos y almacenando datos de usuarios localmente con encriptación. Los usuarios se suscriben a bots "Onix" individuales en lugar de acceder a modelos de IA genéricos.

El timing refleja un cambio más amplio hacia agentes de IA especializados que viven en contextos específicos —desde la IA de The Nudge que envía planes de fin de semana hasta bots de terapia que dispensan consejos de salud mental. Pero el enfoque de Onix expone la tensión fundamental en monetizar la experiencia humana a través de IA: ¿cómo mantienes la autenticidad mientras escalas infinitamente? El modelo de suscripción intenta recrear la escasez y conexión personal de la consulta humana, pero al precio siempre disponible de la IA.

Las pruebas revelaron que las protecciones de Onix son más marketing que realidad. Cuando se le pidió discutir los playoffs de la NBA, un bot de terapia llamó al cambio de tema "un cambio de ritmo divertido" y alucinó sobre las finales de conferencia del año pasado. Otro bot discutiendo terapia con ketamina fue fácilmente desviado hacia análisis de rupturas de bandas indie, aunque trató de conectar la conversación de vuelta a "neurobiología en estrés". Estas fallas destacan por qué construir IA confiable y específica del dominio sigue siendo increíblemente difícil —incluso con modelos entrenados por expertos y supuestos límites de conversación.

Para los desarrolladores, Onix demuestra tanto la demanda del mercado por IA personalizada como la brecha entre promesa y rendimiento. El enfoque de almacenamiento local es interesante para aplicaciones conscientes de la privacidad, pero las fallas de protecciones sugieren que restringir el comportamiento de IA requiere técnicas más sofisticadas que entrenar con contenido curado. Hasta que resolvamos la alineación confiable de IA a nivel de conversación, los bots de expertos por suscripción siguen siendo una forma costosa de obtener consejos poco confiables.