Zubnet AIAprenderWiki › Grounding
Usar AI

Grounding

Também conhecido como: Ancoragem factual
Conectar as respostas de um modelo a fontes factuais e verificáveis, em vez de deixá-lo se apoiar apenas nos seus dados de treinamento. Técnicas de grounding incluem RAG, integração com busca na web e exigências de citação. Uma resposta com grounding diz "de acordo com [fonte]" em vez de simplesmente afirmar fatos.

Por que isso importa

Grounding é a principal defesa contra alucinação. Um modelo sem grounding inventa fatos com confiança. Um com grounding aponta para fontes reais que você pode verificar.

Em profundidade

Grounding é a prática de ancorar as saídas de um modelo a informações externas verificáveis, e existe porque modelos de linguagem têm uma limitação arquitetural fundamental: eles não sabem o que sabem. Os dados de treinamento de um modelo estão incorporados em seus pesos como padrões estatísticos, não como um banco de dados consultável de fatos. Ele não consegue verificar se uma afirmação específica está nos seus dados de treinamento ou checar uma data contra uma fonte confiável. O grounding compensa isso dando ao modelo acesso a dados autoritativos no momento da inferência, para que ele possa basear respostas em evidências fornecidas em vez de memória por correspondência de padrões.

RAG na Prática

A técnica de grounding mais comum em produção hoje é a geração aumentada por recuperação (RAG). O padrão básico é direto: pegue a pergunta do usuário, use-a para buscar em uma base de conhecimento (geralmente um banco de dados vetorial com chunks de documentos em formato de embedding), recupere os trechos mais relevantes e inclua-os no contexto do modelo junto com a pergunta. O modelo então gera uma resposta baseada nesses trechos recuperados. O Vertex AI do Google, o Amazon Bedrock e a maioria das plataformas empresariais de IA oferecem pipelines de RAG como serviços gerenciados. A sacada principal é que você está mudando o trabalho do modelo de "lembrar fatos do treinamento" para "sintetizar uma resposta a partir de documentos fornecidos" — uma tarefa na qual modelos são muito mais confiáveis.

Grounding por Busca na Web

O grounding por busca na web segue uma abordagem diferente. Em vez de pesquisar uma base de conhecimento privada, o modelo consulta a web ao vivo e incorpora resultados na sua resposta. A Perplexity construiu todo o seu produto em torno dessa ideia. Os modelos Gemini do Google podem acessar o Google Search diretamente. O recurso de navegação do ChatGPT faz trabalho similar. A vantagem sobre RAG é a atualidade — grounding por busca na web pode responder perguntas sobre eventos de ontem, enquanto um sistema RAG é tão atual quanto sua última atualização de índice. A desvantagem é que a própria web contém desinformação, então você está trocando uma fonte de erro por outra.

Exigências de citação são uma forma mais leve de grounding que funciona no nível do prompt. Quando você diz a um modelo "Só faça afirmações que você possa atribuir aos documentos fornecidos, e cite suas fontes inline", você não está dando a ele novas capacidades — está restringindo seu comportamento para se manter mais próximo de material verificável. Isso funciona surpreendentemente bem na prática, especialmente com modelos capazes como Claude ou GPT-4. O modelo frequentemente se recusa a responder ou sinaliza explicitamente incerteza em vez de fabricar uma citação, porque gerar uma citação falsa que pareça estruturalmente correta é mais difícil do que simplesmente dizer "Não tenho essa informação". Dito isso, grounding por citação não é à prova de falhas. Modelos ainda podem alucinar citações que parecem plausíveis mas referenciam a seção errada ou distorcem o que uma fonte realmente diz.

Quando o Grounding Falha

Uma armadilha prática com grounding é a dependência excessiva da qualidade da recuperação. Se seu pipeline de RAG recupera chunks irrelevantes — porque os embeddings não capturaram a intenção da consulta, ou a estratégia de chunking dividiu um trecho crítico entre dois chunks — o modelo vai ancorar sua resposta no material errado e produzir uma resposta confiante e errada com citações. Grounding não elimina alucinação; muda o modo de falha. Em vez de o modelo inventar fatos do nada, ele agora pode interpretar mal ou extrapolar demais de fontes reais. Um bom grounding requer boa recuperação, o que significa investir em qualidade de embedding, dimensionamento de chunks, reranking e avaliação — não apenas plugar um banco de dados vetorial no seu pipeline e considerar resolvido.

Conceitos relacionados

← Todos os termos
← Google DeepMind Salvaguardas →
ESC