Zubnet AIApprendreWiki › Drift Detection
Infrastructure

Drift Detection

Data Drift, Model Drift, Concept Drift
Monitorer les changements dans la distribution des données ou le comportement du modèle dans le temps qui pourraient dégrader la performance. Data drift : les données d'entrée changent (les démographies clients se déplacent, de nouvelles catégories de produits apparaissent). Concept drift : la relation entre les entrées et les sorties correctes change (ce qui constitue du spam évolue). Model drift : les prédictions du modèle deviennent graduellement moins exactes même si le modèle lui-même n'a pas changé.

Pourquoi c'est important

Les modèles sont entraînés sur des données historiques, mais le monde continue de changer. Un modèle de détection de fraude entraîné en 2024 va manquer les nouveaux patterns de fraude de 2025. Un système de recommandation entraîné sur le comportement pré-pandémie va faire de mauvaises suggestions post-pandémie. La drift detection attrape ces dégradations avant qu'elles deviennent coûteuses — t'alertant que le modèle a besoin de réentraînement ou de mise à jour.

Deep Dive

Data drift detection: compare the statistical distribution of current inputs to the training data distribution. If features shift significantly (using tests like KS test, PSI, or Jensen-Shannon divergence), the model may be operating outside its training distribution. Example: a credit scoring model trained on applicants aged 25–55 starts receiving applications from 18-year-olds — a population it's never seen.

Concept Drift

Concept drift is harder to detect because the inputs look the same but the correct outputs change. During COVID, "normal" purchase patterns shifted dramatically — buying 100 rolls of toilet paper went from "probable fraud" to "Tuesday." The model's predictions became wrong not because the model degraded, but because reality changed. Detecting concept drift requires comparing predictions to ground truth, which often arrives with a delay.

For LLMs

LLM drift manifests differently: user query patterns shift (new topics emerge), provider model updates change behavior (API model versions change silently), and the world changes (outdated training data). Monitoring strategies include: tracking output quality scores over time, detecting shifts in topic distribution of queries, alerting on increases in user-reported issues, and periodically re-evaluating on a fixed benchmark to detect provider-side changes.

Concepts liés

← Tous les termes
ESC