Zubnet AIAprenderWiki › Aprendizado Contínuo
Treinamento

Aprendizado Contínuo

Também conhecido como: Aprendizado Vitalício, Aprendizado Incremental
A capacidade de um modelo de aprender com novos dados continuamente sem esquecer o que aprendeu antes. LLMs atuais são treinados uma vez e congelados — atualizá-los requer retreinamento caro. Aprendizado contínuo permitiria que modelos aprendessem de cada interação, se mantivessem atualizados com novas informações e se adaptassem a usuários individuais ao longo do tempo, da forma como humanos naturalmente aprendem.

Por que isso importa

Aprendizado contínuo é um dos grandes problemas não resolvidos da IA. Modelos atuais têm cortes de conhecimento, não podem aprender com correções e tratam cada conversa como uma tela em branco. Resolver o aprendizado contínuo eliminaria a necessidade de ciclos caros de retreinamento, permitiria IA personalizada que genuinamente se adapta a cada usuário e permitiria que modelos ficassem perpetuamente atualizados.

Em profundidade

O obstáculo fundamental é o esquecimento catastrófico: treinar com dados novos sobrescreve os pesos que codificavam conhecimento antigo. Humanos não têm esse problema (aprender francês não faz você esquecer inglês) porque redes neurais biológicas usam mecanismos diferentes para consolidação de memória. Redes neurais artificiais armazenam todo conhecimento em pesos compartilhados, tornando qualquer atualização uma disrupção potencial das capacidades existentes.

Abordagens Atuais

Diversas estratégias abordam parcialmente o aprendizado contínuo: métodos de replay (misturar dados antigos com novos durante o treinamento), métodos de regularização (penalizar mudanças em pesos importantes para tarefas antigas, como EWC), métodos de arquitetura (alocar diferentes parâmetros para diferentes tarefas) e abordagens com retrieval augmented (armazenar conhecimento externamente em um banco de dados em vez de nos pesos). Nenhum resolve completamente o problema, mas cada um permite algum grau de aprendizado incremental.

RAG como Substituto Pragmático

Na prática, RAG (Retrieval-Augmented Generation) serve como substituto pragmático para o verdadeiro aprendizado contínuo. Em vez de atualizar os pesos do modelo com novas informações, você atualiza uma base de conhecimento externa que o modelo consulta no momento da inferência. Isso contorna completamente o esquecimento catastrófico, mas tem limitações: as capacidades de raciocínio do modelo não melhoram, apenas seu acesso a informações. O verdadeiro aprendizado contínuo melhoraria tanto conhecimento quanto capacidades simultaneamente.

Conceitos relacionados

← Todos os termos
← Aprendizado Contrastivo Aprendizado de máquina →