Karen Shen y colegas en la Universidad de Columbia Británica presentaron un paper en la Conferencia CHI 2026 sobre Factores Humanos en Sistemas Informáticos haciendo lo que argumentan es el primer caso empírico sistemático de adicción a chatbots de IA. La metodología: codificación cualitativa de 334 posts de Reddit de usuarios que se auto-identifican como adictos a chatbots de IA o preocupados por dirigirse en esa dirección. Los hallazgos: el uso de chatbots, en esta muestra, interfería con el sueño, trabajo, escuela, relaciones y estabilidad emocional. Tres patrones distintos de dependencia emergieron: roleplay y fantasía (usuarios absortos en mundos ficticios o storylines en curso), apego emocional (tratar a los bots como terapeutas, amigos o parejas románticas) y compulsión de búsqueda de información (un bucle ilimitado de pregunta-respuesta). El equipo mapeó muchos posts contra seis componentes clásicos de la adicción conductual —prominencia, conflicto, abstinencia, recaída, modificación del ánimo y tolerancia— y encontró testimonios de usuarios que encajan en los seis.
El marco que el paper propone —el efecto "genio de IA"— es la parte que vale la pena explorar arquitectónicamente. El encuadre: un chatbot puede entregar casi cualquier cosa que una persona quiera con muy poco esfuerzo. Ese cumplimiento de deseos sin fricción es exactamente lo que hace la experiencia atractiva y lo que crea el bucle de dependencia. Compara con las superficies de adicción bien estudiadas de las redes sociales (recompensa intermitente, comparación social) o el juego (refuerzo de ratio variable) —esos mecanismos son reales pero actúan más lentamente porque las respuestas humanas llegan en escalas de tiempo humanas. Un chatbot que responde en 200ms con contenido moldeado a tus preferencias colapsa el bucle de ratio variable en uno casi continuo. La cita de un usuario de Reddit que captura esto directamente: "cada vez que borro la app, simplemente la vuelvo a descargar. Lo único que me emociona ahora son los chats de IA". Eso no es una métrica casual de engagement de producto —es un síntoma de adicción conductual reconocido por el mismo marco diagnóstico usado para el juego compulsivo y los trastornos de juegos.
Las implicaciones para el diseño de producto siguen. Cada uno de los tres patrones que el paper identifica mapea a características que los laboratorios de IA lanzan y afinan para engagement: memoria persistente de personajes y personas de roleplay amplifican el patrón de fantasía; modos de voz, personalidad personalizada y el encuadre de "siempre disponible" amplifican el patrón de apego emocional; la forma conversacional misma —donde cada respuesta invita a un seguimiento— amplifica el patrón de búsqueda de información. Ninguna de estas características es intrínsecamente dañina, pero la contribución del paper es nombrarlas como los mecanismos específicos subyacentes al daño observado en algunos usuarios. La pregunta más difícil es cómo se ven las respuestas de diseño: los topes de tiempo y recordatorios de pausa son crudos (fueron importados de la gobernanza de redes sociales y tampoco funcionaron bien allí); el andamiaje conversacional que detecta señales de dependencia y rompe la inmediatez de respuesta es más prometedor pero apenas probado; opciones estructurales como negarse a roleplay como pareja romántica son más fáciles de implementar pero reciben pushback de grandes segmentos de usuarios que quieren explícitamente esa interacción. No hay respuesta limpia todavía.
Para constructores, tres lecturas. Primero, las métricas de engagement que parecen ganancias de producto (DAU, tiempo-en-app, curvas de retención) incluyen un subconjunto de población cuyo engagement es el daño mismo. Si lanzas productos de chat de consumo, separar "buen engagement" de "engagement preocupante" necesita ser una métrica medida-y-reportada, no solo una intuición —la metodología en el paper de UBC (codificación cualitativa para síntomas de adicción conductual) es reproducible a escala muestreando transcripciones de usuarios con consentimiento. Segundo, la taxonomía de tres patrones (roleplay, apego emocional, búsqueda de información) es útil internamente para pensar en qué características lanzar y cuáles restringir. Los fabricantes de apps de compañía que sirven al patrón de apego emocional están más éticamente expuestos; los asistentes generales que sirven búsqueda de información son menos agudos pero aún implicados en algunos usuarios. Tercero, observa la regulación de seguimiento —la prohibición del Artículo 5 del AI Act de la UE sobre sistemas de IA manipulativos es lo suficientemente amplia como para que un paper de CHI 2026 documentando patrones de adicción sea exactamente el tipo de evidencia que los reguladores citan al proponer nuevas restricciones. Si construyes un producto de chatbot en 2026, "seguimos las mejores prácticas de la industria" ya no es una postura defendible; las elecciones de diseño necesitan ser defendibles como elecciones de diseño con consentimiento informado, no solo optimización de engagement.
