A escritora Kate Gilgan se viu defendendo um ensaio profundamente pessoal sobre perder a guarda do filho quando o Twitter literário a acusou de usar IA para escrever na coluna Modern Love do New York Times. Inicialmente descartadas como especulação infundada, as acusações acabaram tendo substância — Gilgan depois admitiu ao The Atlantic que usou ChatGPT, Claude, Copilot e Perplexity para "conceitualizar e editar" a peça, embora tenha negado copiar e colar diretamente das saídas de IA.
Este caso destaca a realidade bagunçada da integração de IA no trabalho criativo. Diferente do plágio claro, a abordagem de Gilgan representa uma área cinza que muitos escritores estão navegando: usar IA como parceiro de pensamento em vez de escritor fantasma. Sua declaração de que pediu à IA para "resumir isso para mim" e ajudar a publicar o ensaio no Times sugere uso estratégico de múltiplos modelos para diferentes aspectos do processo de escrita — exatamente o tipo de fluxo de trabalho que muitos desenvolvedores e criadores de conteúdo estão adotando.
A controvérsia eclodiu junto com outros incidentes de IA de alto perfil em grandes publicações. Como cobri anteriormente este ano, o NYT demitiu o freelancer Alex Preston por usar IA que plagiou uma resenha do Guardian. A editora Hachette retirou um romance de terror por suspeita de uso de IA durante o mesmo período. Esses casos revelam como instituições estão lutando para definir colaboração aceitável com IA versus automação proibida, especialmente quando a detecção permanece pouco confiável e escritores nem sempre são transparentes sobre suas ferramentas.
Para construtores e usuários de IA, isso estabelece um precedente claro: transparência importa mais que a tecnologia em si. O maior erro de Gilgan não foi usar quatro modelos diferentes de IA — foi não revelar essa colaboração antecipadamente. Conforme a IA se torna padrão em fluxos de trabalho criativos, a expectativa por revelação só vai se intensificar.
