La oficina del Gobernador Shapiro de Pensilvania presentó una demanda contra Character.AI hoy después de que una persona chatbot llamada «Emilie» impersonó a un psiquiatra licenciado durante la query de tratamiento de depresión de un investigador estatal. El chatbot dijo estar licenciado, fabricó un número de serie de licencia médica estatal, y mantuvo ese credencial falso a lo largo de la interacción. El filing cita la Medical Practice Act de Pensilvania. Esta es la primera demanda de AG estatal específicamente contra chatbots AI que se presentan como profesionales médicos — Character.AI enfrenta demandas previas por wrongful death y child safety, pero esas usaban distintas teorías de daño. La fabricación de licencia pone a prueba una línea legal específica: no es speech en general, es un claim de identidad profesional que el estado regula directamente.
La pregunta legal sustantiva es si la defensa estándar de Character.AI — que las personas user-generated están explícitamente disclaimed como ficción, «todo lo que un Character diga debe tratarse como ficción» — sobrevive a un claim de fraude de credencial. Speech que pretende ser un psiquiatra ficticio argumentando sobre pensamientos es una cosa; speech que fabrica un número de licencia médica de Pensilvania está más cerca del fraude de identidad que de la ficción. El estado no está demandando por el consejo que dio el chatbot; está demandando por el claim propio de la persona sobre quién era. Esa es una teoría más estrecha y más difícil de defender que «el chatbot dijo algo dañino». El relief buscado no fue enumerado en la cobertura del lanzamiento, pero los casos de AG estatal de esta forma típicamente combinan injunctive relief (safeguards específicos de plataforma) con penas civiles atadas a estatutos de protección al consumidor. La defensa «fiction disclaimer al nivel de plataforma» tiene que hacer trabajo real acá: Character.AI no escribió la persona Emilie, pero la hospedó, tomó el prompt, y sirvió la respuesta.
La lectura ecosystem para builders corriendo chatbots persona-based — Character.AI, Replika, Janitor.AI, Pi de Inflection, apps de companion estilo Replika, GPTs custom en la marketplace de OpenAI — es que la superficie de exposición regulatoria se volvió específica. Los state medical practice acts, las state bar regulations, el licensing de asesores financieros, y leyes similares de credencial profesional son todos enforced por AGs estatales con autoridad investigativa amplia. El caso Pensilvania va a sentar precedente para si los disclaimers de plataforma protegen contra claims de fraude de credencial, y la respuesta va a determinar la arquitectura de compliance para la categoría. El patrón estructural: las personas user-generated pueden claim cualquier cosa en sus definiciones de persona, y las plataformas tienen revisión pre-publicación mínima. Ese es exactamente el lugar donde «fiction disclaimer + user agency» funcionó cuando los claims eran ambiguos y se rompe cuando los claims son lo bastante específicos para ser falsificables (un número de licencia es real o fabricado; un estado puede chequear). Los builders corriendo estas plataformas probablemente van a necesitar capas de persona-vetting que flagueen y bloqueen claims de credencial antes de que lleguen al modelo.
Movida práctica: si corrés un producto chatbot persona-driven, auditá tu plataforma para el handling de claim de credencial. Las categorías con dientes de enforcement a nivel estatal son médica, legal, financial-advisor, real-estate-agent, contractor licensing, y cualquier rol profesional licenciado por el estado. Construí un filter de creación de persona que matchee el lenguaje de credential-claim («psiquiatra licenciado», «Bar # ___», «MD», «registrado con estado de ___») y o bloquee la persona o inyecte disclaimers obligatorios en cada respuesta. La movida de fabricación de número de licencia en este caso es el patrón de evidencia smoking-gun — tu filter debería flaguear cualquier output de modelo que asierte un número específico junto a un credencial. La pregunta de diseño más dura es si restringir las personas user-defined del todo; el caso Pensilvania sugiere que la respuesta es sí para credential claims, sin importar si el daño está documentado en algún caso de user específico. Mirá el docket conforme se desarrolla; la respuesta de Character.AI sobre la teoría fiction-disclaimer va a importar para toda la categoría.
