Detección de deriva de datos: compara la distribución estadística de las entradas actuales con la distribución de los datos de entrenamiento. Si las características cambian significativamente (usando pruebas como KS, PSI o divergencia de Jensen-Shannon), el modelo podría estar operando fuera de su distribución de entrenamiento. Ejemplo: un modelo de scoring crediticio entrenado con solicitantes de 25–55 años comienza a recibir solicitudes de jóvenes de 18 años — una población que nunca ha visto.
La deriva de concepto es más difícil de detectar porque las entradas se ven igual pero las salidas correctas cambian. Durante el COVID, los patrones de compra "normales" cambiaron dramáticamente — comprar 100 rollos de papel higiénico pasó de "probable fraude" a "martes". Las predicciones del modelo se volvieron incorrectas no porque el modelo se degradó, sino porque la realidad cambió. Detectar deriva de concepto requiere comparar predicciones con la verdad fundamental, que frecuentemente llega con retraso.
La deriva en LLMs se manifiesta diferente: los patrones de consultas de usuarios cambian (surgen nuevos temas), las actualizaciones del modelo del proveedor cambian el comportamiento (las versiones del modelo API cambian silenciosamente), y el mundo cambia (datos de entrenamiento desactualizados). Las estrategias de monitoreo incluyen: rastrear puntuaciones de calidad del output a lo largo del tiempo, detectar cambios en la distribución de temas de las consultas, alertar sobre aumentos en problemas reportados por usuarios y reevaluar periódicamente en un benchmark fijo para detectar cambios del lado del proveedor.