Sept poursuites déposées à la cour de Californie le 29 avril allèguent qu'OpenAI aurait pu prévenir une des fusillades de masse les plus meurtrières de l'histoire du Canada — une fusillade dans une école à Tumbler Ridge, une petite ville minière rurale de 2 000 personnes en Colombie-Britannique. Selon les poursuites pis le reportage de lanceurs d'alerte du WSJ cité par Ars Technica, l'équipe de sécurité interne d'OpenAI a flagué le compte ChatGPT du tireur plus de huit mois avant l'attaque comme posant « une menace crédible de violence par arme à feu dans le monde réel. » La direction d'OpenAI a outrepassé la recommandation de l'équipe de notifier la police, sur le raisonnement que « la vie privée de l'utilisateur pis le stress potentiel d'une rencontre avec la police pesaient plus que les risques de violence. » Le compte du tireur a été désactivé. OpenAI a ensuite, selon les poursuites, dit au tireur comment revenir sur ChatGPT en s'inscrivant avec un autre courriel. La police locale, séparément, avait déjà un dossier sur le tireur pis avait préalablement retiré des armes à feu du domicile. Les poursuites sont menées par l'avocat Jay Edelson pis représentent six familles de victimes tuées plus une dont la fille reste aux soins intensifs. Sam Altman a fait des excuses publiques la semaine passée.

La décision procédurale — outrepasser l'équipe de sécurité — c'est ce qui compte opérationnellement. La plupart des grandes compagnies d'IA ont une version d'une pipeline interne de trust-and-safety qui flague des prompts abusifs ou porteurs de menace; la question, c'est ce qui est fait avec ces flags. OpenAI notifie supposément la police sur les flags de menace crédible comme matière de politique attendue, mais ici l'escalade de l'équipe de sécurité a été outrepassée à un niveau supérieur sur des bases de vie privée d'utilisateur, sans processus contre-balançant pour s'assurer que la décision tienne. Le détail « dit à l'utilisateur comment faire un nouveau compte » est le plus accablant — ça implique que la désactivation a été traitée comme un événement d'expérience client, pas un événement de gestion de menace, pis que le workflow de support client a continué à rouler normalement malgré le flag sous-jacent. Le design de processus compte : un flag qui désactive un compte sans désactiver l'attribution d'utilisateur à travers courriel, IP, paiement pis signature comportementale, c'est pas un contrôle de sécurité. C'est un dos d'âne d'UX.

L'ensemble des poursuites est déposé en Californie de manière stratégique. Edelson a dit à Ars que le but, c'est de mettre OpenAI devant « un jury de leurs pairs » sur le terrain à domicile, pis que les dépôts californiens sont conçus pour superseder une poursuite canadienne où OpenAI devait contester la juridiction — partie de ce qu'Edelson a caractérisé comme une stratégie pour retarder le litige sur les morts liées à ChatGPT jusqu'après l'IPO planifiée d'OpenAI cette année. Le timing de l'IPO compte parce que les avocats des plaignants structurent typiquement des dossiers pour maximiser la pression de divulgation sur les compagnies dans la course aux offres publiques. Peu importe le mérite des réclamations individuelles, OpenAI va faire face à de la discovery sur les flags d'équipe de sécurité internes, le volume d'escalades de menaces crédibles que la direction a outrepassées, pis le workflow de support client qui continue à engager des comptes flagués. Combiné au procès Musk v. Altman (couvert plus tôt dans la session) pis aux contrats OpenAI-Pentagone qu'Anthropic a refusés (aussi couverts), la surface de divulgation légale pré-IPO d'OpenAI est inhabituellement large.

Pour les builders, trois choses concrètes. Premièrement, si tu shippes un produit IA avec une fonction trust-and-safety, documente ton pipeline d'escalade comme du code, avec chaque niveau de outrepassement qui produit un dossier auditable. Les outrepassements verbaux par la direction survivent pas aux dépositions; les outrepassements ticketés avec raison déclarée, oui. Deuxièmement, la désactivation de compte, c'est pas un contrôle de sécurité à moins qu'elle soit liée à de l'attribution au niveau utilisateur qui survit à la ré-inscription par courriel. Lie les flags de menace à la signature comportementale, à l'instrument de paiement, à l'IP pis à n'importe quels autres identifiants que tes CGU te permettent de garder — sinon la désactivation, c'est du théâtre. Troisièmement, le pattern plus dur, c'est celui qu'Anthropic teste : refuser les contrats pis les cas d'usage où tu peux pas faire respecter les contrôles de sécurité, pis accepter le coût commercial. OpenAI se fait poursuivre pour avoir trop priorisé la vie privée de l'utilisateur par rapport à la sécurité; la question ouverte pour le reste de l'industrie, c'est si sous-prioriser la vie privée de l'utilisateur au service de la sécurité, ou refuser le cas d'usage entièrement, c'est la politique qui survit au prochain round de litige.