Zubnet AIAprenderWiki › Liquid AI
Empresas

Liquid AI

También conocido como: Liquid Foundation Models, redes neuronales líquidas
Spinout del MIT que explora arquitecturas de redes neuronales fundamentalmente diferentes, inspiradas en circuitos neuronales biologicos. Sus Liquid Foundation Models usan dinamicas de tiempo continuo en lugar de transformers de pesos fijos, prometiendo mejor eficiencia y adaptabilidad.

Por qué importa

Liquid AI representa el desafio financiado mas serio a la suposicion de que los transformers son la unica arquitectura que importa. Al construir modelos fundacionales de grado produccion sobre dinamicas de tiempo continuo inspiradas en la biologia, estan probando si la apuesta total de la industria de IA por los mecanismos de atencion fue prematura. Incluso si los LFMs no destronan a los transformers directamente, sus ventajas de eficiencia para despliegue en el edge y procesamiento de secuencias largas podrian abrir nichos criticos en robotica, IA movil y sistemas embebidos — mercados donde ejecutar un transformer de 70B simplemente no es una opcion.

En profundidad

Liquid AI surgio de la investigacion en el Laboratorio de Ciencias de la Computacion e Inteligencia Artificial (CSAIL) del MIT, especificamente del trabajo de Ramin Hasani, Mathias Lechner y Daniela Rus. Hasani y Lechner habian estado estudiando los sistemas nerviosos de C. elegans — un diminuto gusano redondo con exactamente 302 neuronas — y descubrieron que las ecuaciones matematicas que gobiernan estos circuitos neuronales biologicos podian adaptarse a un nuevo tipo de red neuronal artificial. A diferencia de las redes estandar donde los pesos de las conexiones se fijan despues del entrenamiento, estas redes "liquidas" usan ecuaciones diferenciales de tiempo continuo que permiten que los parametros se adapten dinamicamente segun la entrada. La empresa se fundo formalmente en 2023 y rapidamente recaudo mas de $250 millones con una valuacion superior a $2 mil millones, con respaldo de AMD Ventures y otros inversores que vieron el potencial de una arquitectura que rompe fundamentalmente con el paradigma transformer.

Liquid Foundation Models: una apuesta diferente

La linea de productos principal de Liquid AI — los Liquid Foundation Models (LFMs) — se lanzo con tres tamanos: LFM-1B, LFM-3B y LFM-40B. Lo que los hace arquitectonicamente distintos es que no son transformers, y tampoco son modelos de espacio de estados en el sentido de Mamba. Los LFMs usan un enfoque hibrido que combina capas de espacio de estados estructurado con mecanismos similares a la atencion, pero las matematicas subyacentes estan arraigadas en esas dinamicas de tiempo continuo de la investigacion biologica. En la practica, esto significa que los LFMs pueden manejar secuencias muy largas de forma mas eficiente que los transformers estandar — su huella de memoria no se dispara cuadraticamente con la longitud de la secuencia. El modelo LFM-1B, en particular, llamo la atencion por superar a varios modelos basados en transformer de tamano similar en benchmarks estandar, sugiriendo que las diferencias arquitectonicas se traduian en ganancias reales de capacidad en lugar de solo elegancia teorica.

IA en el edge y el argumento de la eficiencia

Una de las afirmaciones mas convincentes de Liquid AI es la eficiencia en el edge. Debido a que las redes liquidas pueden representar dinamicas complejas con menos parametros que los transformers, son naturalmente adecuadas para despliegue en dispositivos con computo limitado — telefonos, robots, sensores IoT, vehiculos autonomos. La empresa ha sido explicita sobre apuntar a estos casos de uso, posicionandose no como otra empresa de chatbots sino como el proveedor de arquitectura para IA que corre en todas partes. Este es un mercado fundamentalmente diferente del enfoque cloud-first de la mayoria de los laboratorios de IA. Si tu modelo puede ejecutarse de forma significativa en la unidad de procesamiento neuronal de un telefono sin llamadas constantes al servidor, desbloqueas aplicaciones que son imposibles con IA dependiente de la nube: robotica en tiempo real, procesamiento offline, inferencia que preserva la privacidad en el dispositivo. Liquid AI se asocio con Qualcomm y otros fabricantes de hardware para optimizar sus modelos para arquitecturas de chips especificas, un movimiento que senala intencion seria sobre la historia de despliegue en el edge.

La tesis de la diversidad arquitectonica

La existencia de Liquid AI es una apuesta por la diversidad arquitectonica — la idea de que los transformers, a pesar de su dominio, no son la ultima palabra en diseno de redes neuronales. Esta tesis ha ganado credibilidad a medida que las limitaciones de los transformers se han vuelto mas claras: costos cuadraticos de atencion, dificultad con secuencias muy largas, consumo masivo de energia durante la inferencia. La comunidad de modelos de espacio de estados (Mamba, RWKV y otros) ya ha demostrado que existen alternativas competitivas; Liquid AI va mas alla al argumentar que las dinamicas inspiradas en la biologia ofrecen ventajas que incluso los SSMs no capturan, particularmente en razonamiento temporal y comportamiento adaptativo. Si esto es cierto a escala de frontera sigue sin probarse — el LFM-40B es competitivo pero no dominante frente a los mejores modelos transformer de tamano comparable — pero los fundamentos teoricos son lo suficientemente rigurosos como para que la comunidad de investigacion en IA tome el trabajo en serio.

Desafios y escepticismo

El riesgo obvio para Liquid AI es que el ecosistema transformer esta enormemente arraigado. El stack de software (PyTorch, kernels CUDA, servidores de inferencia) esta abrumadoramente optimizado para arquitecturas basadas en atencion. Cada gran proveedor de nube ha gastado miles de millones construyendo infraestructura afinada para modelos basados en atencion. Cambiar a una arquitectura fundamentalmente diferente significa reconstruir herramientas, reentrenar ingenieros y convencer a los clientes de que las ganancias en eficiencia justifican los costos de transicion. Liquid AI ha abordado esto parcialmente proporcionando compatibilidad drop-in con APIs — desde la perspectiva del usuario, llamar a un LFM se ve identico a llamar a cualquier otro modelo. Pero el desafio mas profundo es si pueden demostrar una ventaja clara y sostenida a las escalas que importan para la adopcion empresarial. Con $250 millones en financiamiento y solidas credenciales academicas, tienen mas pista que la mayoria de los retadores de arquitectura. El proximo ano determinara si las redes neuronales liquidas se convierten en una fuerza real en la IA de produccion o siguen siendo una de las notas al pie mas intelectualmente interesantes en la historia del campo.

Conceptos relacionados

← Todos los términos
← Leonardo.ai LoRA →
ESC