Zubnet AIApprendreWiki › Liquid AI
Compagnies

Liquid AI

Aussi appelé : Liquid Foundation Models, réseaux de neurones liquides
Entreprise issue du MIT explorant des architectures de réseaux de neurones fondamentalement différentes, inspirées des circuits neuronaux biologiques. Leurs Liquid Foundation Models utilisent des dynamiques en temps continu plutôt que des transformers à poids fixes, promettant une meilleure efficacité et adaptabilité.

Pourquoi c’est important

Liquid AI représente le défi financé le plus sérieux à l'hypothèse que les transformers sont la seule architecture qui compte. En construisant des modèles fondation de qualité production sur des dynamiques en temps continu inspirées de la biologie, ils testent si le pari tout-en-un de l'industrie de l'IA sur les mécanismes d'attention était prématuré. Même si les LFM ne détrônent pas complètement les transformers, leurs avantages en efficacité pour le déploiement en périphérie et le traitement de longues séquences pourraient se tailler des créneaux essentiels en robotique, en IA mobile et en systèmes embarqués — des marchés où faire tourner un transformer de 70 milliards de paramètres n'est tout simplement pas envisageable.

En profondeur

Liquid AI est née de recherches au laboratoire d'informatique et d'intelligence artificielle du MIT (CSAIL), plus précisément des travaux de Ramin Hasani, Mathias Lechner et Daniela Rus. Hasani et Lechner avaient étudié le système nerveux de C. elegans — un minuscule ver rond possédant exactement 302 neurones — et ont découvert que les équations mathématiques régissant ces circuits neuronaux biologiques pouvaient être adaptées en un nouveau type de réseau de neurones artificiel. Contrairement aux réseaux standard où les poids de connexion sont fixes après l'entraînement, ces réseaux « liquides » utilisent des équations différentielles en temps continu qui permettent aux paramètres de s'adapter dynamiquement en fonction de l'entrée. L'entreprise a été officiellement fondée en 2023 et a rapidement levé plus de 250 millions de dollars pour une valorisation de plus de 2 milliards, avec le soutien d'AMD Ventures et d'autres investisseurs qui ont vu le potentiel d'une architecture rompant fondamentalement avec le paradigme des transformers.

Liquid Foundation Models : un pari différent

La gamme de produits principale de Liquid AI — les Liquid Foundation Models (LFM) — a été lancée en trois tailles : LFM-1B, LFM-3B et LFM-40B. Ce qui les rend architecturalement distincts, c'est qu'ils ne sont pas des transformers, et ils ne sont pas non plus des modèles d'espace d'états au sens de Mamba. Les LFM utilisent une approche hybride combinant des couches structurées d'espace d'états avec des mécanismes semblables à l'attention, mais les mathématiques sous-jacentes sont enracinées dans ces dynamiques en temps continu issues de la recherche biologique. En pratique, cela signifie que les LFM peuvent traiter de très longues séquences plus efficacement que les transformers standard — leur empreinte mémoire n'explose pas de manière quadratique avec la longueur de la séquence. Le modèle LFM-1B, en particulier, a attiré l'attention en surpassant plusieurs modèles basés sur des transformers de taille similaire sur les bancs d'essai standard, suggérant que les différences architecturales se traduisaient en gains réels de capacité plutôt qu'en simple élégance théorique.

IA en périphérie et l'argument de l'efficacité

L'une des affirmations les plus convaincantes de Liquid AI concerne l'efficacité en périphérie. Parce que les réseaux liquides peuvent représenter des dynamiques complexes avec moins de paramètres que les transformers, ils sont naturellement adaptés au déploiement sur des appareils avec des ressources de calcul limitées — téléphones, robots, capteurs IdO, véhicules autonomes. L'entreprise a été explicite quant au ciblage de ces cas d'utilisation, se positionnant non pas comme une autre entreprise de chatbot, mais comme le fournisseur d'architecture pour une IA qui fonctionne partout. C'est un marché fondamentalement différent de l'approche « nuage d'abord » de la plupart des laboratoires d'IA. Si votre modèle peut fonctionner de manière significative sur l'unité de traitement neuronal d'un téléphone sans appels constants au serveur, vous débloquez des applications impossibles avec une IA dépendante de l'infonuagique : robotique en temps réel, traitement hors ligne, inférence préservant la vie privée sur l'appareil. Liquid AI s'est associée à Qualcomm et d'autres fabricants de matériel pour optimiser leurs modèles pour des architectures de puces spécifiques, un geste qui témoigne d'une intention sérieuse quant au déploiement en périphérie.

La thèse de la diversité architecturale

L'existence de Liquid AI est un pari sur la diversité architecturale — l'idée que les transformers, malgré leur domination, ne sont pas le dernier mot en matière de conception de réseaux de neurones. Cette thèse a gagné en crédibilité à mesure que les limites des transformers sont devenues plus claires : coûts d'attention quadratiques, difficulté avec les très longues séquences, consommation d'énergie massive pendant l'inférence. La communauté des modèles d'espace d'états (Mamba, RWKV et autres) a déjà prouvé que des alternatives compétitives existent ; Liquid AI va plus loin en soutenant que les dynamiques inspirées de la biologie offrent des avantages que même les SSM ne captent pas, notamment en raisonnement temporel et en comportement adaptatif. Que cela soit vrai à l'échelle frontière reste à prouver — le LFM-40B est compétitif mais pas dominant face aux meilleurs modèles transformer de taille comparable — mais les fondations théoriques sont suffisamment rigoureuses pour que la communauté de recherche en IA prenne les travaux au sérieux.

Défis et scepticisme

Le risque évident pour Liquid AI est que l'écosystème transformer est extrêmement bien ancré. La pile logicielle (PyTorch, noyaux CUDA, serveurs d'inférence) est massivement optimisée pour les architectures basées sur l'attention. Chaque grand fournisseur d'infonuagique a dépensé des milliards pour construire une infrastructure adaptée aux modèles basés sur l'attention. Passer à une architecture fondamentalement différente signifie reconstruire les outils, reformer les ingénieurs et convaincre les clients que les gains d'efficacité justifient les coûts de transition. Liquid AI a partiellement résolu cela en offrant une compatibilité API directe — du point de vue de l'utilisateur, appeler un LFM est identique à appeler n'importe quel autre modèle. Mais le défi plus profond est de démontrer un avantage clair et soutenu aux échelles qui comptent pour l'adoption en entreprise. Avec 250 millions de dollars de financement et de solides références universitaires, ils disposent de plus de marge de manœuvre que la plupart des challengers architecturaux. L'année prochaine déterminera si les réseaux de neurones liquides deviennent une force réelle dans l'IA de production ou restent l'une des notes de bas de page les plus intellectuellement fascinantes de l'histoire du domaine.

Concepts connexes

← Tous les termes
← Leonardo.ai LoRA →
ESC