Zubnet AIAprenderWiki › AI21 Labs
Empresas

AI21 Labs

Jamba
Una empresa israelí de IA conocida por Jamba, la primera arquitectura híbrida de grado producción que combina capas de atención Transformer con capas SSM de Mamba. AI21 fue fundada por investigadores de IA (incluyendo a Yoav Shoham) y ha estado construyendo modelos de lenguaje desde 2017, antes de ChatGPT. Sus modelos están disponibles vía API y a través de proveedores de nube.

Por qué importa

AI21 Labs importa porque Jamba demostró que las arquitecturas híbridas Transformer-SSM funcionan en la práctica, no solo en papers de investigación. Al intercalar capas de atención y Mamba, Jamba logra una ventana de contexto de 256K con menor uso de memoria que modelos Transformer puros de calidad similar. Este enfoque híbrido puede ser el futuro de la arquitectura de LLMs.

En profundidad

La arquitectura de Jamba intercala bloques Transformer (con atención estándar) y bloques Mamba (con espacios de estados selectivos) en una proporción de aproximadamente 1:7 — una capa de atención por cada siete capas de Mamba. Esto captura lo mejor de ambos: las capas de Mamba manejan el grueso del procesamiento de secuencias de manera eficiente (lineal en la longitud de la secuencia), mientras que las capas de atención proporcionan la interacción global de tokens que los SSMs puros a veces carecen. El resultado: un modelo que cabe en una sola GPU de 80GB con 256K de contexto mientras iguala a modelos solo-Transformer en calidad.

El Componente MoE

Jamba también usa Mixture of Experts (MoE), con 52B de parámetros totales pero solo ~12B activos por token. Esta combinación de SSM + Atención + MoE es la arquitectura híbrida más compleja en producción y demuestra que estas técnicas se componen bien. La reducción de 3x en memoria de caché KV comparada con un Transformer puro de calidad equivalente es prácticamente significativa para servir cargas de trabajo de contexto largo.

Conceptos relacionados

← Todos los términos
← AGI Ajuste fino →
ESC