A Onix foi lançada esta semana como um "Substack para chatbots", oferecendo clones de IA de influenciadores de saúde e bem-estar com os quais assinantes podem conversar para conselhos personalizados. Fundada pelo ex-colaborador da WIRED David Bennahum, a startup canadense promete resolver os problemas centrais da IA —alucinações, privacidade e compensação de criadores— treinando bots exclusivamente com conteúdo fornecido por especialistas e armazenando dados de usuários localmente com criptografia. Usuários assinam bots "Onix" individuais em vez de acessar modelos de IA genéricos.
O timing reflete uma mudança mais ampla em direção a agentes de IA especializados que vivem em contextos específicos —da IA do The Nudge que manda mensagens com planos de fim de semana até bots de terapia dispensando conselhos de saúde mental. Mas a abordagem da Onix expõe a tensão fundamental em monetizar expertise humana através de IA: como você mantém autenticidade enquanto escala infinitamente? O modelo de assinatura tenta recriar a escassez e conexão pessoal da consulta humana, mas no preço sempre disponível da IA.
Testes revelaram que as proteções da Onix são mais marketing que realidade. Quando solicitado a discutir playoffs da NBA, um bot de terapia chamou a mudança de tópico de "uma mudança de ritmo divertida" e alucinou sobre as finais de conferência do ano passado. Outro bot discutindo terapia com ketamina foi facilmente desviado para análise de separação de banda indie, embora tenha tentado conectar a conversa de volta à "neurobiologia em sofrimento". Essas falhas destacam por que construir IA confiável e específica de domínio continua incrivelmente difícil —mesmo com modelos treinados por especialistas e supostos limites de conversa.
Para desenvolvedores, a Onix demonstra tanto a demanda do mercado por IA personalizada quanto a lacuna entre promessa e performance. A abordagem de armazenamento local é interessante para aplicações conscientes de privacidade, mas as falhas de proteções sugerem que restringir comportamento de IA requer técnicas mais sofisticadas que treinar com conteúdo curado. Até resolvermos alinhamento confiável de IA no nível de conversa, bots de especialistas por assinatura permanecem uma forma cara de obter conselhos não confiáveis.
