Zubnet AIAprenderWiki › Red Feedforward
Fundamentos

Red Feedforward

También conocido como: FFN, Bloque MLP
El componente en cada capa del Transformer que procesa cada token de forma independiente a través de dos transformaciones lineales con una función de activación en el medio. Mientras la atención mezcla información entre tokens (qué tokens se relacionan con cuáles), la red feedforward procesa la representación de cada token individualmente, aplicando transformaciones no lineales que codifican conocimiento y realizan cálculos.

Por qué importa

La red feedforward es donde se almacena la mayor parte del conocimiento de un Transformer. La atención se lleva toda la gloria, pero las capas FFN contienen la mayoría de los parámetros del modelo (típicamente 2/3 del total) y es donde residen principalmente las asociaciones factuales, patrones del lenguaje y cálculos aprendidos. Entender esto ayuda a explicar fenómenos como la edición de conocimiento y la poda de modelos.

En profundidad

La FFN estándar: FFN(x) = W2 · activation(W1 · x + b1) + b2, donde W1 proyecta desde la dimensión del modelo a una dimensión intermedia más grande (típicamente 4x), la función de activación introduce no linealidad, y W2 proyecta de vuelta a la dimensión del modelo. Cada posición (token) pasa por esto independientemente — la FFN no ve otros tokens, solo la capa de atención lo hace.

SwiGLU y Variantes con Compuerta

Los LLMs modernos (LLaMA, Mistral, etc.) usan SwiGLU en lugar de la FFN estándar: SwiGLU(x) = (W1 · x · SiLU) ⊗ (W3 · x). Esto añade una tercera matriz de pesos (W3) y un mecanismo de compuerta que permite a la red controlar qué información pasa. A pesar de los parámetros adicionales, funciona mejor a cómputo equivalente, por lo que la dimensión intermedia se ajusta hacia abajo para compensar. Este es un caso donde un componente ligeramente más complejo mejora todo el sistema.

Almacenamiento de Conocimiento

La investigación sugiere que las capas FFN funcionan como memorias clave-valor: la primera capa lineal (W1) detecta patrones en la entrada (claves), y la segunda capa lineal (W2) mapea esos patrones a actualizaciones de salida (valores). "La Torre Eiffel está en" activa neuronas específicas en W1, que a través de W2 promueven el token "París". Esta interpretación clave-valor explica por qué las capas FFN almacenan conocimiento factual y por qué las técnicas de edición de conocimiento pueden modificar hechos específicos actualizando pesos específicos de la FFN.

Conceptos relacionados

← Todos los términos
← Recuperación Red neuronal →
ESC
Empieza a escribir para buscar...