Zubnet AIAprenderWiki › Knowledge Editing
Training

Knowledge Editing

Model Editing, Fact Editing
Técnicas para modificar fatos específicos em um modelo treinado sem re-treiná-lo. Se um modelo afirma incorretamente “O presidente da França é Macron” depois de uma nova eleição, edição de conhecimento pode atualizar esse fato específico modificando pesos direcionados, sem afetar o outro conhecimento ou capacidades do modelo. O objetivo é precisão cirúrgica: mudar um fato, deixar tudo mais intacto.

Por que importa

Edição de conhecimento atende um problema prático: modelos ficam desatualizados, e re-treinar é caro. Se você pudesse atualizar fatos específicos barato, modelos poderiam se manter atuais entre runs de treinamento maiores. Também tem implicações de segurança: você poderia editar conhecimento perigoso? O campo é promissor mas imaturo — edições frequentemente têm efeitos colaterais não intencionais em conhecimento relacionado.

Deep Dive

The dominant approach (ROME/MEMIT): identify which feedforward network weights encode a specific fact by tracing the causal effect of neurons on the model's prediction, then modify those weights to change the stored association. For example, to update "The Eiffel Tower is in Paris" to "The Eiffel Tower is in London," you find the weights that map "Eiffel Tower" → "Paris" in the FFN layers and redirect them to "London."

The Ripple Effect Problem

Editing "The Eiffel Tower is in London" should also change answers to "What country is the Eiffel Tower in?" (UK, not France) and "What landmarks are in Paris?" (no longer the Eiffel Tower). Current editing methods often fail at this: they change the direct fact but leave related inferences inconsistent. This "ripple effect" problem suggests that knowledge in LLMs is more interconnected than the surgical editing metaphor implies.

Scaling Challenges

A few edits work reasonably well. Hundreds of edits start to degrade model quality — the edited weights accumulate changes that interfere with each other and with unedited knowledge. This limits knowledge editing's practical use: it's fine for a few corrections but can't serve as a general model update mechanism. For staying current, RAG (providing updated information at inference time) remains more practical than editing the model's weights.

Conceitos relacionados

← Todos os termos
← Knowledge Cutoff Knowledge Graph →