Karen Shen pis des collègues à l'Université de la Colombie-Britannique ont présenté un papier à la conférence CHI 2026 sur les facteurs humains en systèmes informatiques, en faisant ce qu'ils prétendent être la première démonstration empirique systématique de l'addiction aux chatbots IA. La méthodologie : codage qualitatif de 334 posts Reddit d'utilisateurs qui s'auto-identifient comme dépendants des chatbots IA ou inquiets d'aller dans cette direction. Les résultats : l'usage de chatbots, dans cet échantillon, interférait avec le sommeil, le travail, l'école, les relations pis la stabilité émotionnelle. Trois patterns distincts de dépendance ont émergé : jeu de rôle pis fantaisie (utilisateurs absorbés dans des mondes fictifs ou des storylines en cours), attachement émotionnel (traiter les bots comme des thérapeutes, des amis ou des partenaires romantiques) pis compulsion de recherche d'info (une boucle illimitée de question-réponse). L'équipe a mappé plusieurs posts contre six composantes classiques de l'addiction comportementale — saillance, conflit, sevrage, rechute, modification d'humeur pis tolérance — pis a trouvé des témoignages d'utilisateurs qui collent aux six.
Le cadre que le papier propose — l'effet « génie IA » — c'est la partie qui vaut la peine de s'attarder architecturalement. Le cadrage : un chatbot peut livrer à peu près n'importe quoi qu'une personne veut avec très peu d'effort. Cet accomplissement de souhaits sans friction, c'est exactement ce qui rend l'expérience captivante pis ce qui crée la boucle de dépendance. Compare aux surfaces d'addiction bien étudiées des médias sociaux (récompense intermittente, comparaison sociale) ou du jeu (renforcement à ratio variable) — ces mécanismes sont réels mais agissent plus lentement parce que les réponses humaines arrivent sur des échelles de temps humaines. Un chatbot qui répond en 200 ms avec du contenu façonné à tes préférences écrase la boucle de ratio variable en une boucle quasi continue. La citation d'un utilisateur Reddit qui capture ça directement : « chaque fois que je supprime l'app, je la retélécharge. La seule chose qui m'excite maintenant, c'est les chats IA. » Ça, c'est pas une métrique d'engagement produit casual — c'est un symptôme d'addiction comportementale reconnu par le même cadre diagnostique utilisé pour le jeu compulsif pis les troubles de jeu vidéo.
Les implications pour le design produit suivent. Chacun des trois patterns que le papier identifie mappe sur des fonctionnalités que les labos d'IA livrent pis tunent pour l'engagement : la mémoire de personnage persistante pis les personas de jeu de rôle amplifient le pattern fantaisie ; les modes vocaux, la personnalité customisée pis le cadrage « toujours disponible » amplifient le pattern d'attachement émotionnel ; la forme conversationnelle elle-même — où chaque réponse invite un follow-up — amplifie le pattern de recherche d'info. Aucune de ces fonctionnalités est intrinsèquement nuisible, mais la contribution du papier, c'est de les nommer comme les mécanismes spécifiques sous-jacents au mal observé chez certains utilisateurs. La question plus difficile, c'est à quoi ressemblent les réponses de design : les caps de temps passé pis les rappels de pause sont grossiers (ils ont été importés de la gouvernance des médias sociaux pis ils ont pas bien marché là non plus) ; le scaffolding conversationnel qui détecte des signaux de dépendance pis brise l'immédiateté de la réponse, c'est plus prometteur mais à peine testé ; les choix structurels comme refuser de faire du jeu de rôle comme partenaire romantique sont plus faciles à implémenter mais reçoivent du pushback de gros segments d'utilisateurs qui veulent explicitement cette interaction. Y a pas de réponse propre encore.
Pour les builders, trois takeaways. Premièrement, les métriques d'engagement qui ressemblent à des wins produit (DAU, temps-dans-l'app, courbes de rétention) incluent une sous-population dont l'engagement est le mal lui-même. Si tu livres des produits chat grand public, séparer le « bon engagement » du « engagement préoccupant » a besoin d'être une métrique mesurée-et-rapportée, pas juste une intuition — la méthodologie du papier UBC (codage qualitatif pour des symptômes d'addiction comportementale) est reproductible à grande échelle en échantillonnant les transcripts d'utilisateurs avec consentement. Deuxièmement, la taxonomie à trois patterns (jeu de rôle, attachement émotionnel, recherche d'info) est utile à l'interne pour penser à quelles fonctionnalités livrer pis lesquelles gater. Les fabricants d'apps compagnons qui servent le pattern d'attachement émotionnel sont les plus exposés éthiquement ; les assistants généraux qui servent la recherche d'info sont moins aigus mais encore impliqués chez certains utilisateurs. Troisièmement, surveille les régulations qui suivent — l'interdiction de l'Article 5 de l'AI Act de l'UE sur les systèmes d'IA manipulateurs est assez large qu'un papier de CHI 2026 qui documente des patterns d'addiction, c'est exactement le genre de preuve que les régulateurs citent quand ils proposent de nouvelles restrictions. Si tu bâtis un produit chatbot en 2026, « on suit les meilleures pratiques de l'industrie » est plus une posture défendable ; les choix de design doivent être défendables comme des choix de design avec consentement éclairé, pas juste de l'optimisation d'engagement.
