Sete processos abertos numa corte da Califórnia em 29 de abril alegam que a OpenAI poderia ter prevenido um dos tiroteios em massa mais mortais da história do Canadá — um tiroteio escolar em Tumbler Ridge, uma cidade mineradora rural de 2.000 pessoas na Columbia Britânica. Segundo os processos e os reportes de whistleblowers do WSJ citados pela Ars Technica, o time de segurança interno da OpenAI sinalizou a conta ChatGPT do atirador mais de oito meses antes do ataque como apresentando "uma ameaça crível de violência armada no mundo real." A liderança da OpenAI anulou a recomendação do time de notificar a polícia, raciocinando que "a privacidade do usuário e o estresse potencial de um encontro com a polícia pesavam mais do que os riscos de violência." A conta do atirador foi desativada. A OpenAI então, segundo os processos, disse ao atirador como voltar ao ChatGPT se cadastrando com outro email. A polícia local, separadamente, já tinha um processo sobre o atirador e havia previamente removido armas da casa. Os processos são liderados pelo advogado Jay Edelson e representam seis famílias de vítimas mortas mais uma cuja filha continua na UTI. Sam Altman ofereceu um pedido de desculpas público na semana passada.
A decisão processual — anular o time de segurança — é a parte que importa operacionalmente. A maioria das grandes empresas de IA tem alguma versão de uma pipeline interna de trust-and-safety que sinaliza prompts abusivos ou que carregam ameaças; a pergunta é o que se faz com essas sinalizações. A OpenAI supostamente notifica a polícia sobre sinalizações de ameaça crível como questão de política esperada, mas aqui a escalação do time de segurança foi anulada num nível superior por motivos de privacidade do usuário, sem processo que fizesse contrapeso para garantir que a decisão se sustentasse. O detalhe "disseram ao usuário como criar uma nova conta" é o mais incriminador — implica que a desativação foi tratada como um evento de experiência do cliente, não um evento de gestão de ameaça, e que o workflow de suporte ao cliente continuou rodando normalmente apesar da sinalização subjacente. Design de processo importa: uma sinalização que desativa uma conta sem desativar a atribuição do usuário através de email, IP, pagamento e assinatura comportamental não é um controle de segurança. É um quebra-molas de UX.
O conjunto de processos é aberto na Califórnia estrategicamente. Edelson disse à Ars que o objetivo é colocar a OpenAI diante de "um júri de seus pares" em casa, e que os arquivamentos californianos são desenhados para suplantar um processo canadense onde se esperava que a OpenAI contestasse a jurisdição — parte do que Edelson caracterizou como uma estratégia para atrasar litígios por mortes ligadas ao ChatGPT até depois do IPO planejado da OpenAI este ano. O timing do IPO importa porque advogados de demandantes tipicamente estruturam casos para maximizar pressão de divulgação sobre empresas no caminho até as ofertas públicas. Seja qual for o mérito dos pedidos individuais, a OpenAI vai enfrentar discovery sobre as sinalizações internas do time de segurança, o volume de escalações de ameaças críveis que a liderança anulou, e o workflow de suporte ao cliente que continua a engajar contas sinalizadas. Combinado com o julgamento Musk v. Altman (coberto antes na sessão) e os contratos OpenAI-Pentágono que a Anthropic recusou (também cobertos), a superfície de divulgação legal pré-IPO da OpenAI é incomumente ampla.
Para os builders, três coisas concretas. Primeiro, se você lança qualquer produto de IA com uma função de trust-and-safety, documente sua pipeline de escalação como código, com cada nível de override produzindo um registro auditável. Overrides verbais por parte da liderança não sobrevivem a depoimentos; overrides ticketados com justificativa declarada sobrevivem. Segundo, desativação de conta não é um controle de segurança a menos que esteja amarrada a atribuição no nível de usuário que sobrevive a re-cadastro por email. Amarre as sinalizações de ameaça a assinatura comportamental, instrumento de pagamento, IP e quaisquer outros identificadores que seus TOS permitam reter — caso contrário, a desativação é teatro. Terceiro, o padrão mais difícil é o que a Anthropic está testando: recusar os contratos e casos de uso onde você não consegue fazer cumprir controles de segurança, e aceitar o custo comercial. A OpenAI está sendo processada por super-priorizar a privacidade do usuário sobre a segurança; a pergunta em aberto para o resto da indústria é se sub-priorizar a privacidade do usuário a serviço da segurança, ou recusar o caso de uso por completo, é a política que sobrevive à próxima rodada de litígio.
