Zubnet AIAprenderWiki › Liquid AI
Empresas

Liquid AI

Também conhecido como: Liquid Foundation Models, redes neurais líquidas
Spinout do MIT explorando arquiteturas de redes neurais fundamentalmente diferentes, inspiradas em circuitos neurais biológicos. Seus Liquid Foundation Models usam dinâmica de tempo contínuo em vez de transformers com pesos fixos, prometendo melhor eficiência e adaptabilidade.

Por que isso importa

A Liquid AI representa o desafio financiado mais sério à suposição de que transformers são a única arquitetura que importa. Ao construir foundation models de nível de produção sobre dinâmicas de tempo contínuo inspiradas biologicamente, estão testando se a aposta total da indústria de IA em mecanismos de atenção foi prematura. Mesmo que os LFMs não destronem os transformers por completo, suas vantagens de eficiência para implantação na borda e processamento de sequências longas podem conquistar nichos críticos em robótica, IA móvel e sistemas embarcados — mercados onde rodar um transformer de 70B simplesmente não é uma opção.

Em profundidade

A Liquid AI nasceu de pesquisas no Computer Science and Artificial Intelligence Laboratory (CSAIL) do MIT, especificamente do trabalho de Ramin Hasani, Mathias Lechner e Daniela Rus. Hasani e Lechner vinham estudando os sistemas nervosos do C. elegans — um minúsculo verme nematoide com exatamente 302 neurônios — e descobriram que as equações matemáticas que regem esses circuitos neurais biológicos podiam ser adaptadas para um novo tipo de rede neural artificial. Ao contrário de redes padrão onde os pesos das conexões são fixos após o treinamento, essas redes "líquidas" usam equações diferenciais de tempo contínuo que permitem que os parâmetros se adaptem dinamicamente com base na entrada. A empresa foi formalmente fundada em 2023 e rapidamente captou mais de US$ 250 milhões com avaliação acima de US$ 2 bilhões, com apoio da AMD Ventures e outros investidores que enxergaram o potencial de uma arquitetura que rompe fundamentalmente com o paradigma transformer.

Liquid Foundation Models: Uma Aposta Diferente

A linha principal de produtos da Liquid AI — os Liquid Foundation Models (LFMs) — foi lançada com três tamanhos: LFM-1B, LFM-3B e LFM-40B. O que os torna arquitetonicamente distintos é que não são transformers, e também não são modelos de espaço de estados no sentido do Mamba. Os LFMs usam uma abordagem híbrida que combina camadas de espaço de estados estruturados com mecanismos semelhantes à atenção, mas a matemática subjacente está enraizada naquela dinâmica de tempo contínuo da pesquisa biológica. Na prática, isso significa que os LFMs conseguem lidar com sequências muito longas de forma mais eficiente que transformers padrão — seu consumo de memória não explode quadraticamente com o tamanho da sequência. O modelo LFM-1B, em particular, chamou atenção por superar vários modelos baseados em transformer de tamanho semelhante em benchmarks padrão, sugerindo que as diferenças arquitetônicas se traduziam em ganhos reais de capacidade em vez de apenas elegância teórica.

Edge AI e o Argumento da Eficiência

Uma das afirmações mais convincentes da Liquid AI é a eficiência na borda (edge). Como redes líquidas conseguem representar dinâmicas complexas com menos parâmetros que transformers, são naturalmente adequadas para implantação em dispositivos com computação limitada — celulares, robôs, sensores IoT, veículos autônomos. A empresa tem sido explícita em mirar esses casos de uso, posicionando-se não como mais uma empresa de chatbot, mas como a fornecedora de arquitetura para IA que roda em qualquer lugar. Esse é um mercado fundamentalmente diferente da abordagem cloud-first da maioria dos laboratórios de IA. Se seu modelo consegue rodar de forma significativa na unidade de processamento neural de um celular sem chamadas constantes ao servidor, você desbloqueia aplicações impossíveis com IA dependente da nuvem: robótica em tempo real, processamento offline, inferência com preservação de privacidade no dispositivo. A Liquid AI firmou parceria com a Qualcomm e outros fabricantes de hardware para otimizar seus modelos para arquiteturas específicas de chips, um movimento que sinaliza intenções sérias quanto à implantação na borda.

A Tese da Diversidade de Arquiteturas

A existência da Liquid AI é uma aposta na diversidade de arquiteturas — a ideia de que os transformers, apesar de sua dominância, não são a palavra final em design de redes neurais. Essa tese ganhou credibilidade à medida que as limitações dos transformers ficaram mais claras: custos quadráticos de atenção, dificuldade com sequências muito longas, consumo energético massivo durante a inferência. A comunidade de modelos de espaço de estados (Mamba, RWKV e outros) já provou que alternativas competitivas existem; a Liquid AI vai além ao argumentar que dinâmicas inspiradas biologicamente oferecem vantagens que até os SSMs não alcançam, particularmente em raciocínio temporal e comportamento adaptativo. Se isso é verdade na escala de fronteira ainda não está provado — o LFM-40B é competitivo mas não dominante contra os melhores modelos transformer de tamanho comparável — mas os fundamentos teóricos são rigorosos o suficiente para que a comunidade de pesquisa em IA leve o trabalho a sério.

Desafios e Ceticismo

O risco óbvio para a Liquid AI é que o ecossistema transformer está enormemente enraizado. A stack de software (PyTorch, kernels CUDA, servidores de inferência) é esmagadoramente otimizada para arquiteturas baseadas em atenção. Cada grande provedor de nuvem gastou bilhões construindo infraestrutura afinada para modelos baseados em atenção. Mudar para uma arquitetura fundamentalmente diferente significa reconstruir ferramental, retreinar engenheiros e convencer clientes de que os ganhos de eficiência justificam os custos de transição. A Liquid AI abordou isso parcialmente fornecendo compatibilidade direta de API — da perspectiva do usuário, chamar um LFM é idêntico a chamar qualquer outro modelo. Mas o desafio mais profundo é se conseguem demonstrar uma vantagem clara e sustentada nas escalas que importam para adoção empresarial. Com US$ 250 milhões em financiamento e fortes credenciais acadêmicas, têm mais fôlego que a maioria dos desafiantes de arquitetura. O próximo ano vai determinar se redes neurais líquidas se tornam uma força real na IA de produção ou permanecem como uma das notas de rodapé mais intelectualmente interessantes da história do campo.

Conceitos relacionados

← Todos os termos
← Leonardo.ai LoRA →
ESC