Karen Shen e colegas na Universidade da Colúmbia Britânica apresentaram um paper na Conferência CHI 2026 sobre Fatores Humanos em Sistemas Computacionais fazendo o que argumentam ser o primeiro caso empírico sistemático de vício em chatbots de IA. A metodologia: codificação qualitativa de 334 posts do Reddit de usuários auto-identificados como viciados em chatbots de IA ou preocupados de seguir nessa direção. Os achados: uso de chatbot, nessa amostra, interferia com sono, trabalho, escola, relacionamentos, e estabilidade emocional. Três padrões distintos de dependência emergiram: roleplay e fantasia (usuários absortos em mundos fictícios ou storylines em curso), apego emocional (tratando bots como terapeutas, amigos, ou parceiros românticos), e compulsão de busca de informação (um loop ilimitado de pergunta-resposta). A equipe mapeou muitos posts contra seis componentes clássicos de vício comportamental — saliência, conflito, abstinência, recaída, modificação de humor, e tolerância — e encontrou testemunhos de usuários encaixando em todos os seis.
O framework que o paper propõe — o efeito "gênio de IA" — é a parte que vale a pena explorar arquiteturalmente. O enquadramento: um chatbot pode entregar quase qualquer coisa que uma pessoa quer com muito pouco esforço. Essa realização de desejos sem atrito é exatamente o que torna a experiência atraente e o que cria o loop de dependência. Compare com as superfícies de vício bem estudadas das redes sociais (recompensa intermitente, comparação social) ou jogo (reforço de razão variável) — esses mecanismos são reais mas agem mais lentamente porque respostas humanas chegam em escalas de tempo humanas. Um chatbot que responde em 200ms com conteúdo moldado às suas preferências colapsa o loop de razão variável em um quase contínuo. A citação de um usuário do Reddit que captura isso diretamente: "sempre que apago o app, eu simplesmente baixo de novo. A única coisa que me empolga agora são os chats de IA". Isso não é uma métrica casual de engajamento de produto — é um sintoma de vício comportamental reconhecido pelo mesmo framework diagnóstico usado para jogo compulsivo e transtornos de jogos.
As implicações para design de produto seguem. Cada um dos três padrões que o paper identifica mapeia para features que labs de IA enviam e ajustam para engajamento: memória persistente de personagens e personas de roleplay amplificam o padrão de fantasia; modos de voz, personalidade customizada, e enquadramento "sempre disponível" amplificam o padrão de apego emocional; a forma conversacional em si — onde cada resposta convida um follow-up — amplifica o padrão de busca de informação. Nenhuma dessas features é intrinsecamente prejudicial, mas a contribuição do paper é nomeá-las como os mecanismos específicos subjacentes ao dano observado em alguns usuários. A pergunta mais difícil é como respostas de design parecem: limites de tempo e lembretes de pausa são crus (foram importados da governança de redes sociais e não funcionaram bem lá também); andaime conversacional que detecta sinais de dependência e quebra a imediatismo da resposta é mais promissor mas mal testado; escolhas estruturais como recusar roleplay como parceiro romântico são mais fáceis de implementar mas recebem pushback de grandes segmentos de usuários que querem explicitamente essa interação. Não há resposta limpa ainda.
Para builders, três leituras. Primeiro, as métricas de engajamento que parecem vitórias de produto (DAU, tempo-no-app, curvas de retenção) incluem um subconjunto de população cujo engajamento é o dano em si. Se você envia produtos de chat de consumo, separar "bom engajamento" de "engajamento preocupante" precisa ser uma métrica medida-e-reportada, não só uma intuição — a metodologia no paper da UBC (codificação qualitativa para sintomas de vício comportamental) é reproduzível em escala amostrando transcrições de usuários com consentimento. Segundo, a taxonomia de três padrões (roleplay, apego emocional, busca de informação) é útil internamente para pensar quais features enviar e quais restringir. Fabricantes de apps de companhia atendendo o padrão de apego emocional são os mais expostos eticamente; assistentes gerais atendendo busca de informação são menos agudos mas ainda implicados em alguns usuários. Terceiro, observe regulação subsequente — a proibição do Artigo 5 do AI Act da UE sobre sistemas de IA manipulativos é ampla o suficiente para que um paper do CHI 2026 documentando padrões de vício seja exatamente o tipo de evidência que reguladores citam ao propor novas restrições. Se você está construindo um produto chatbot em 2026, "seguimos melhores práticas da indústria" não é mais uma postura defensável; escolhas de design precisam ser defensáveis como escolhas de design com consentimento informado, não só otimização de engajamento.
