Zubnet AIAprenderWiki › Característica
Fundamentos

Característica

También conocido como: Representación aprendida, Activación
Un patrón o concepto que una red neuronal aprende a detectar en su entrada. En visión, las características de las capas tempranas son bordes y texturas; las de las capas posteriores son partes de objetos y objetos completos. En modelos de lenguaje, las características van desde las simples (la letra "a", un patrón sintáctico específico) hasta las abstractas (el concepto de sarcasmo, una estrategia de razonamiento particular). Las características se representan como patrones de activación a lo largo de las neuronas.

Por qué importa

Las características son lo que los modelos realmente aprenden — no hechos individuales sino patrones que generalizan. Un modelo no memoriza "los gatos tienen pelo"; aprende un detector de características para texturas similares al pelo que se activa para gatos, perros y osos de peluche. Entender las características ayuda a explicar el comportamiento del modelo: por qué generaliza (las características se transfieren), por qué falla (se activó la característica incorrecta) y cómo mejorarlo (exponerlo a características más diversas).

En profundidad

El término "característica" tiene diferentes significados según el contexto. En ML clásico, las características son variables de entrada diseñadas a mano (altura, peso, edad). En deep learning, las características son representaciones aprendidas en las capas ocultas — el modelo descubre patrones útiles por sí mismo. Este cambio de características diseñadas a mano a características aprendidas es la innovación central del deep learning y la razón por la que supera al ML clásico en tareas complejas como visión y lenguaje.

Características jerárquicas

Las redes profundas aprenden características jerárquicas: cada capa se construye sobre la anterior. En un modelo de visión: la capa 1 detecta bordes, la capa 2 combina bordes en texturas y esquinas, la capa 3 combina texturas en partes de objetos (ojos, ruedas), la capa 4 combina partes en objetos (rostros, autos). Esta jerarquía emerge automáticamente del entrenamiento — nadie la programa. El mismo aprendizaje jerárquico de características ocurre en los modelos de lenguaje, desde patrones de caracteres hasta sintaxis, semántica y razonamiento.

Visualización de características

Los investigadores visualizan las características para entender qué aprenden los modelos. Para modelos de visión, puedes generar imágenes que activen al máximo una neurona o dirección específica, revelando qué patrón detecta. Para modelos de lenguaje, puedes encontrar los ejemplos de texto que más activan una dirección de característica específica. La investigación de Anthropic ha visualizado características en Claude, encontrando conceptos interpretables como "Golden Gate Bridge", "bugs de código", "engaño" e "idioma francés" codificados como direcciones específicas en el espacio de activaciones del modelo.

Conceptos relacionados

ESC