Zubnet AIApprendreWiki › Knowledge Cutoff
Fondamentaux

Knowledge Cutoff

Training Data Cutoff, Knowledge Date
La date après laquelle un modèle n'a pas de données d'entraînement, voulant dire qu'il manque de connaissances sur les événements, découvertes ou changements qui sont arrivés après cette date. Si le cutoff d'un modèle est avril 2024, il ne connaît rien de ce qui s'est passé en mai 2024 ou plus tard — nouveaux produits, événements d'actualité, papiers scientifiques ou faits mis à jour.

Pourquoi c'est important

Le knowledge cutoff est la source de frustration la plus commune avec les assistants IA. « Pourquoi il ne connaît pas X ? » Parce que X est arrivé après l'entraînement. Cette limitation drive l'adoption du RAG (donner au modèle l'accès à l'info actuelle) et du tool use (laisser le modèle chercher sur le web). Comprendre le cutoff t'aide à savoir quand faire confiance au modèle et quand vérifier.

Deep Dive

The cutoff exists because training data must be collected, cleaned, and processed before training begins — a process that takes weeks to months. A model released in 2025 might have a training data cutoff of late 2024. The gap between cutoff and release represents processing time. Some providers do additional "knowledge updates" through fine-tuning on more recent data, but these are typically narrow (news events, product launches) rather than comprehensive.

Not a Hard Wall

The cutoff isn't perfectly clean. Training data often includes content published over a range of dates, and web scrapes may include pages last updated at various times. A model might know some things from after its "official" cutoff because of overlapping data collection. It might also have gaps in knowledge from before the cutoff if certain sources weren't included. The cutoff date is a rough guide, not a precise boundary.

Working Around It

Three approaches address the cutoff limitation: RAG (retrieve current documents and include them in the prompt), web search tools (let the model search for current information), and regular model updates (retraining or fine-tuning on recent data). In practice, most production applications use RAG or tool use rather than relying solely on the model's internal knowledge, even for information within the training period, because the model's parametric knowledge can be imprecise even for things it "knows."

Concepts liés

← Tous les termes
← Kling AI Knowledge Editing →