Zubnet AIApprendreWiki › Knowledge Editing
Training

Knowledge Editing

Model Editing, Fact Editing
Des techniques pour modifier des faits spécifiques dans un modèle entraîné sans le réentraîner. Si un modèle affirme incorrectement « Le président de la France est Macron » après une nouvelle élection, le knowledge editing peut mettre à jour ce fait spécifique en modifiant des poids ciblés, sans affecter les autres connaissances ou capacités du modèle. Le but est une précision chirurgicale : changer un fait, laisser tout le reste intact.

Pourquoi c'est important

Le knowledge editing adresse un problème pratique : les modèles deviennent obsolètes, et le réentraînement est cher. Si tu pouvais mettre à jour des faits spécifiques à bas coût, les modèles pourraient rester actuels entre les runs d'entraînement majeurs. Ça a aussi des implications de sécurité : pourrais-tu éditer la connaissance dangereuse ? Le champ est prometteur mais immature — les édits ont souvent des effets secondaires non intentionnels sur les connaissances liées.

Deep Dive

The dominant approach (ROME/MEMIT): identify which feedforward network weights encode a specific fact by tracing the causal effect of neurons on the model's prediction, then modify those weights to change the stored association. For example, to update "The Eiffel Tower is in Paris" to "The Eiffel Tower is in London," you find the weights that map "Eiffel Tower" → "Paris" in the FFN layers and redirect them to "London."

The Ripple Effect Problem

Editing "The Eiffel Tower is in London" should also change answers to "What country is the Eiffel Tower in?" (UK, not France) and "What landmarks are in Paris?" (no longer the Eiffel Tower). Current editing methods often fail at this: they change the direct fact but leave related inferences inconsistent. This "ripple effect" problem suggests that knowledge in LLMs is more interconnected than the surgical editing metaphor implies.

Scaling Challenges

A few edits work reasonably well. Hundreds of edits start to degrade model quality — the edited weights accumulate changes that interfere with each other and with unedited knowledge. This limits knowledge editing's practical use: it's fine for a few corrections but can't serve as a general model update mechanism. For staying current, RAG (providing updated information at inference time) remains more practical than editing the model's weights.

Concepts liés

← Tous les termes
← Knowledge Cutoff Knowledge Graph →