Sullivan & Cromwell, um dos escritórios de advocacia mais prestigiados do país, entregou uma petição de falência em tribunal federal em Manhattan que continha citações de casos que não existem, passagens citadas erradamente do código de falências dos EUA e resumos imprecisos de casos reais. O juiz Martin Glenn recebeu uma carta de desculpas de Andrew Dietderich, co-chefe do grupo de reestruturação do escritório. Os erros foram pegos pelo advogado adversário na Boies Schiller Flexner durante revisão rotineira da petição. Fontes disseram ao Financial Times que a S&C tem licença empresarial para o ChatGPT da OpenAI, embora o escritório não tenha confirmado oficialmente qual modelo produziu as citações ruins.

O padrão a essa altura é deprimentemente familiar. Morgan & Morgan, Levidow Levidow & Oberman e uma série de escritórios menores já foram sancionados por entregar citações alucinadas por IA. O que torna essa notável é o escritório: S&C não é um praticante solo procurando atalhos no Google. É um escritório top-5 de Wall Street com taxas faturáveis acima de dois mil dólares por hora, um deployment empresarial de IA e os recursos para construir qualquer workflow de verificação que quiser. As citações alucinadas passaram mesmo assim. O modo de falha é o mesmo de todo incidente anterior: um advogado pediu ao modelo para achar casos de apoio, o modelo produziu algo que parecia casos de apoio, e o advogado assinou a petição sem verificar independentemente que os casos existiam.

A realidade técnica, para quem ainda está confuso: ChatGPT não tem uma base de dados verificada de decisões judiciais. Ele gera texto que casa com o padrão de como citações legais costumam parecer. Quando a citação certa existe nos dados de treinamento, ele pode reproduzi-la com precisão. Quando a citação certa não existe ou o modelo não está certo, ele vai produzir uma citação de aparência plausível mesmo assim, com nome de caso que soa real, volume de reporter que soa real e número de página que soa real. Não há flag interno dizendo "eu inventei isso". O modelo não sabe que não sabe. Licenças empresariais não mudam isso; mudam faturamento e retenção de dados, não a tendência fundamental de modelos de linguagem confabularem quando pedidos para recuperar fatos.

A correção é operacional, não tecnológica. Qualquer escritório usando IA para pesquisa legal precisa de uma regra firme de que toda citação é verificada independentemente contra Westlaw, LexisNexis ou PACER antes da petição ser assinada, e o passo de verificação tem que ser auditável. Ferramentas que ancoram a recuperação em bases de dados reais de casos — há várias mirando esse mercado agora — tornam o workflow mais barato, mas não absolvem o advogado do dever de checar. A lição da S&C não é que ChatGPT é unicamente ruim em direito; é que mesmo organizações sofisticadas com tooling empresarial vão pular verificação se o workflow não as forçar. Juízes estão ficando sem paciência. Encaminhamentos para a OAB e sanções monetárias estão chegando mais frequentemente. Os escritórios que vão sobreviver à transição são os que tratam a saída do modelo como rascunho para checar, não como produto acabado para assinar.