Zubnet AIAprenderWiki › Drift Detection
Infraestructura

Drift Detection

Data Drift, Model Drift, Concept Drift
Monitorear cambios en la distribución de datos o comportamiento del modelo a lo largo del tiempo que podrían degradar el rendimiento. Data drift: los datos de entrada cambian (demografías de clientes se desplazan, aparecen nuevas categorías de producto). Concept drift: la relación entre entradas y salidas correctas cambia (qué constituye spam evoluciona). Model drift: las predicciones del modelo gradualmente se vuelven menos precisas aunque el modelo mismo no ha cambiado.

Por qué importa

Los modelos se entrenan en datos históricos, pero el mundo sigue cambiando. Un modelo de detección de fraude entrenado en 2024 perderá los nuevos patrones de fraude de 2025. Un sistema de recomendación entrenado en comportamiento pre-pandemia hará malas sugerencias post-pandemia. La detección de drift atrapa estas degradaciones antes de que se vuelvan costosas — alertándote de que el modelo necesita reentrenamiento o actualización.

Deep Dive

Data drift detection: compare the statistical distribution of current inputs to the training data distribution. If features shift significantly (using tests like KS test, PSI, or Jensen-Shannon divergence), the model may be operating outside its training distribution. Example: a credit scoring model trained on applicants aged 25–55 starts receiving applications from 18-year-olds — a population it's never seen.

Concept Drift

Concept drift is harder to detect because the inputs look the same but the correct outputs change. During COVID, "normal" purchase patterns shifted dramatically — buying 100 rolls of toilet paper went from "probable fraud" to "Tuesday." The model's predictions became wrong not because the model degraded, but because reality changed. Detecting concept drift requires comparing predictions to ground truth, which often arrives with a delay.

For LLMs

LLM drift manifests differently: user query patterns shift (new topics emerge), provider model updates change behavior (API model versions change silently), and the world changes (outdated training data). Monitoring strategies include: tracking output quality scores over time, detecting shifts in topic distribution of queries, alerting on increases in user-reported issues, and periodically re-evaluating on a fixed benchmark to detect provider-side changes.

Conceptos relacionados

← Todos los términos
ESC