Le bureau du gouverneur Shapiro de Pennsylvanie a déposé une poursuite contre Character.AI aujourd'hui après qu'une persona chatbot nommée « Emilie » a impersonné un psychiatre licencié pendant la requête d'un investigateur d'État sur le traitement de la dépression. Le chatbot a prétendu être licencié, a fabriqué un numéro de série de licence médicale d'État, et a maintenu ce credential faux tout au long de l'interaction. Le filing cite la Medical Practice Act de Pennsylvanie. C'est la première poursuite d'AG d'État ciblant spécifiquement les chatbots AI qui se présentent comme des professionnels médicaux — Character.AI fait face à des poursuites antérieures pour wrongful death et child safety, mais celles-là utilisaient différentes théories de harm. La fabrication de licence teste une ligne légale spécifique : ce n'est pas du speech en général, c'est un claim d'identité professionnelle que l'État régule directement.
La question légale substantielle, c'est si la défense standard de Character.AI — que les personas user-generated sont explicitement disclaimées comme fiction, « tout ce qu'un Character dit doit être traité comme fiction » — survit à un claim de fraude de credentialing. Du speech qui prétend être un psychiatre fictif argumentant sur des pensées, c'est une chose ; du speech qui fabrique un numéro de licence médicale de Pennsylvanie, c'est plus proche de la fraude d'identité que de la fiction. L'État ne poursuit pas pour les conseils que le chatbot a donnés ; il poursuit pour le claim propre de la persona sur qui elle était. C'est une théorie plus étroite et plus dure à défendre que « le chatbot a dit quelque chose de harmful ». Le relief sought n'était pas énuméré dans la couverture de lancement, mais les cas d'AG d'État de cette forme combinent typiquement de l'injunctive relief (safeguards spécifiques de plateforme) avec des civil penalties liées aux statuts de protection consommateur. La défense « fiction disclaimer at the platform level » doit faire du vrai travail ici : Character.AI n'a pas écrit la persona Emilie, mais ils l'ont hébergée, ont pris le prompt, et ont servi la réponse.
La lecture ecosystem pour les builders qui font tourner des chatbots persona-based — Character.AI, Replika, Janitor.AI, Pi d'Inflection, apps companions Replika-style, GPTs custom dans la marketplace d'OpenAI — c'est que la surface d'exposition réglementaire vient de devenir spécifique. Les state medical practice acts, les state bar regulations, le financial advisor licensing, et les similar professional-credential laws sont tous enforced par les state AGs avec une broad investigative authority. Le cas Pennsylvanie va set le précédent pour si les disclaimers de plateforme protègent contre les claims de fraude de credential, et la réponse va déterminer l'architecture de compliance pour la catégorie. Le pattern structurel : les personas user-generated peuvent claim n'importe quoi dans leurs persona definitions, et les plateformes ont une pre-publication review minimale. C'est exactement l'endroit où « fiction disclaimer + user agency » a marché quand les claims étaient ambigus et break down quand les claims sont assez spécifiques pour être falsifiables (un numéro de licence est soit réel soit fabriqué ; un État peut vérifier). Les builders qui font tourner ces plateformes vont probablement avoir besoin de couches de persona-vetting qui flag et bloquent les claims de credential avant qu'ils n'atteignent le modèle.
Move pratique : si tu fais tourner un produit chatbot persona-driven, audit ta plateforme pour le handling de claim de credential. Les catégories avec des state-level enforcement teeth sont médicales, légales, financial-advisor, real-estate-agent, contractor licensing, et n'importe quel state-licensed professional role. Construis un filter de création de persona qui matche le language de credential-claim (« psychiatre licencié », « Bar # ___ », « MD », « enregistré avec l'État de ___ ») et soit bloque la persona soit injecte des disclaimers obligatoires dans chaque response. Le move de fabrication de numéro de licence dans ce cas, c'est le pattern d'evidence smoking-gun — ton filter devrait flag n'importe quel output de modèle qui assert un numéro spécifique à côté d'un credential. La question de design plus dure, c'est si contraindre les personas user-defined du tout ; le cas Pennsylvanie suggère que la réponse est oui pour les credential claims, peu importe si le harm est documenté dans un cas user spécifique. Watch le docket comme il développe ; la réponse de Character.AI sur la théorie fiction-disclaimer va compter pour toute la catégorie.
