Um estudo da Universidade do Texas em Austin e da Microsoft, resumido pela Help Net Security em 29 de abril, observou 15 pesquisadores acadêmicos usando ferramentas de IA comercial — Research Rabbit, Elicit AI, ChatGPT — para revisão de literatura, síntese e ideação. Os pesquisadores foram filmados pensando em voz alta enquanto trabalhavam, e as transcrições resultantes documentam os workarounds que construíram em torno de dois problemas não resolvidos: confidencialidade de prompts (enviar trabalho não publicado para ferramentas cujo manuseio de dados é opaco) e verificação da saída (provar de onde uma citação gerada realmente veio). A amostra é pequena, mas os padrões mapeiam direto para os mesmos problemas que os times de segurança empresarial estão gerenciando agora com o uso de LLMs comerciais por funcionários.
Os dois modos de falha nomeados são vocabulário útil. Attribution displacement acontece quando um LLM amarra informação correta à fonte errada — o fato é real, a citação está mal atribuída. Synthetic blending acontece quando um LLM integra afirmações fabricadas ao lado de citações legítimas numa única saída, deixando a verificação lenta e propensa a erros. Uma participante descreveu ter desafiado o ChatGPT sobre uma citação inexistente; o modelo se desculpou e produziu mais referências fabricadas. Sete dos quinze participantes trataram alucinações não como erros factuais discretos, mas como falhas de transparência — o modelo não dá nenhum sinal sobre quais partes da saída estão fundamentadas e quais são interpoladas. Sobre confidencialidade, dois participantes levantaram diretamente preocupações sobre reuso para treinamento e opacidade de armazenamento ("não saber quantos dos meus dados pessoais estão armazenados, onde, e quem tem acesso"); o comportamento de fundo — colar perguntas de pesquisa não publicadas, hipóteses rascunho, conhecimento de domínio proprietário em ferramentas de IA comerciais — era difundido pela amostra, independente da preocupação declarada.
É um padrão reconhecível. Pesquisadores, como funcionários de empresa, colam conteúdo sensível em ferramentas de IA comerciais porque as ferramentas são úteis e o atrito de auto-hospedar uma alternativa é alto. O estudo descreve isso como "um problema de imputabilidade institucional" — não existe um fórum visível por meio do qual os fornecedores de IA possam ser responsabilizados pelas entradas coletadas, armazenadas ou reutilizadas. A mesma brecha existe nas empresas, onde o staff cola rotineiramente documentos internos, código e planos estratégicos em LLMs comerciais sem garantias de manuseio de dados aplicadas. Os dois modos de falha nomeados — attribution displacement e synthetic blending — também generalizam para além da pesquisa acadêmica. Qualquer sistema que produz citações ou afirmações atribuídas a fonte vai produzir os dois; qualquer pipeline de verificação que não detecta os dois vai deixar passar alguns.
Para os builders, três coisas concretas. Primeiro, se o seu produto produz afirmações atribuídas a fonte (saídas RAG, resultados de busca resumidos, relatórios escritos por IA), embuta checagens para os dois modos. Attribution displacement é detectável re-consultando a fonte citada e verificando que a afirmação específica é suportada lá; synthetic blending é detectável fazendo match de cada referência citada contra uma base autoritativa antes de servir a saída. A maioria dos sistemas RAG em produção checa o primeiro e pula o segundo. Segundo, o ângulo da confidencialidade de prompts vai dirigir decisões de compra corporativas. Se você vende tooling de IA para empresas, "seus prompts não são usados para treinamento" precisa ser cláusula de contrato respaldada por auditoria, não linha de marketing. O estudo UT Austin formaliza as preocupações que compradores vão começar a usar para empurrar. Terceiro, "falha de transparência" é o enquadramento certo para o manejo de alucinação. Os usuários não querem só taxas mais baixas — querem que o sistema marque quais saídas estão fundamentadas e quais são interpoladas. Esse tipo de UI de procedência está faltando em quase todo produto de IA consumidor, e é a próxima rodada de diferenciação.
