Zubnet AIAprenderWiki › Clasificación
Fundamentos

Clasificación

Clasificador, Categorización
La tarea de asignar una entrada a una de un conjunto predefinido de categorías. "¿Este correo es spam o no?" (clasificación binaria). "¿Esta imagen es un gato, un perro o un pájaro?" (multi-clase). "¿Cuáles de estas etiquetas aplican a este artículo?" (multi-etiqueta). La clasificación es la tarea de aprendizaje supervisado más común y la base de incontables aplicaciones reales de IA.

Por qué importa

La clasificación es donde la mayoría de las personas se encuentran por primera vez con el machine learning en la práctica — filtros de spam, moderación de contenido, diagnóstico médico, detección de fraude, análisis de sentimiento. Entender la clasificación te ayuda a comprender toda la pipeline de aprendizaje supervisado: datos etiquetados entran, modelo entrenado, predicciones salen.

En profundidad

Un clasificador produce una distribución de probabilidad sobre las clases. Para clasificación binaria, un solo número entre 0 y 1 basta (la probabilidad de la clase positiva). Para multi-clase, el modelo produce una probabilidad para cada clase, típicamente usando una función softmax para asegurar que sumen 1. La clase predicha es usualmente la que tiene la probabilidad más alta, pero puedes ajustar el umbral de decisión según tu tolerancia a los falsos positivos vs. falsos negativos.

LLMs como Clasificadores

Los LLMs modernos son clasificadores sorprendentemente buenos. En lugar de entrenar un modelo dedicado, puedes hacer un prompt a un LLM: "Clasifica esta reseña de cliente como positiva, negativa o neutral." Para muchas tareas de clasificación, este enfoque zero-shot iguala o supera a clasificadores especializados, especialmente cuando la tarea requiere entender matices o contexto. La compensación es costo y latencia — una llamada a la API de un LLM es mucho más cara que ejecutar un clasificador pequeño localmente.

Métricas que Importan

La exactitud (porcentaje correcto) es la métrica más intuitiva pero puede ser engañosa. Si el 99% de los correos no son spam, un modelo que siempre predice "no spam" obtiene 99% de exactitud pero no detecta ningún spam. La precisión (de los positivos predichos, cuántos son correctos), el recall (de los positivos reales, cuántos fueron encontrados) y el F1 (media armónica de precisión y recall) dan una imagen más completa. La métrica correcta depende del costo de los errores en tu aplicación específica.

Conceptos relacionados

← Todos los términos
← Checkpoint CLIP →
ESC