Zubnet AIAprenderWiki › Model Registry
Infraestructura

Model Registry

Model Store, Model Catalog
Un sistema centralizado para versionar, trackear y gestionar modelos de machine learning entrenados a través de su ciclo de vida. Como un registry de paquetes (npm, PyPI) pero para modelos ML: cada versión de modelo se almacena con sus metadatos (data de entrenamiento, hiperparámetros, métricas de rendimiento, linaje), haciendo posible reproducir resultados, comparar versiones y desplegar modelos específicos a producción.

Por qué importa

Sin un model registry, el desarrollo ML se vuelve caos: ¿qué versión del modelo está en producción? ¿En qué data fue entrenado? ¿Cuándo lo actualizamos por última vez? ¿Quién lo entrenó? Un model registry responde todas estas preguntas y provee el fundamento para un despliegue ML reproducible, auditable y confiable. Es infraestructura esencial para cualquier equipo corriendo modelos en producción.

Deep Dive

A model registry typically stores: the model artifact (weights, configuration), training metadata (hyperparameters, dataset version, training duration), evaluation metrics (accuracy, latency, fairness metrics across demographics), deployment status (which version is serving in production), and lineage (which experiment, code commit, and data pipeline produced this model). MLflow Model Registry, Weights & Biases, and SageMaker Model Registry are popular implementations.

The Deployment Pipeline

In production workflows, the model registry is the handoff point between training and serving: a data scientist trains and evaluates models, registers the best one, a reviewer approves it, and the deployment system pulls the approved model and serves it. This separation of concerns — training doesn't directly touch production, deployment only uses registry-approved models — reduces the risk of deploying broken models.

For LLMs

LLM registries have specific needs: models are very large (tens to hundreds of GB), fine-tuned variants share a common base model (store adapters separately), and evaluation is more complex (automated benchmarks + human evaluation + safety checks). Hugging Face Hub serves as a de facto model registry for the open-source community, with model cards, versioning, and evaluation results. Enterprise teams often use private registries for proprietary models.

Conceptos relacionados

← Todos los términos
ESC