Zubnet AIAprenderWiki › Memória
Usar AI

Memória

Também conhecido como: Memória de IA, contexto persistente
Mecanismos que permitem a modelos de IA reter e recordar informações além de uma única conversa. Inclui memória in-context (usando a janela de contexto), memória externa (RAG, bancos vetoriais), memória persistente de conversa (lembrar preferências do usuário entre sessões) e memória de trabalho (manter estado durante tarefas multi-etapas de agentes). Memória é o que faz a IA parecer uma colaboradora em vez de uma ferramenta sem estado.

Por que isso importa

Sem memória, toda conversa com IA começa do zero. Você repete suas preferências, re-explica seu codebase, re-descreve seu projeto. Memória é o que transforma um chatbot em um assistente — e é um dos problemas mais difíceis de resolver bem, equilibrando relevância, privacidade, obsolescência e custos de armazenamento.

Em profundidade

A forma mais simples de memória de IA é a própria janela de contexto — o modelo "lembra" de tudo que você disse na conversa atual porque está tudo ali na entrada. Modelos iniciais tinham janelas de contexto de 4K tokens (cerca de 3.000 palavras), o que significava que conversas "esqueciam" mensagens anteriores uma vez que ultrapassassem esse limite. Modelos de hoje expandiram dramaticamente isso: Claude suporta até 200K tokens, Gemini 1.5 lida com 1 milhão de tokens, e alguns modelos vão ainda além. Mas tamanho de janela de contexto e memória utilizável não são a mesma coisa. Pesquisas consistentemente mostram que modelos têm dificuldade com informações enterradas no meio de contextos muito longos (o problema do "perdido no meio"), e encher a janela de contexto é caro — você paga por cada token em cada chamada de API, então um histórico de conversa de 100K tokens custa dinheiro real para manter.

Curto Prazo vs. Longo Prazo

A distinção entre memória de curto e longo prazo em IA espelha a mesma distinção na cognição humana, mas as implementações são bastante diferentes. Memória de curto prazo (também chamada memória de trabalho) é o que o modelo mantém durante uma única sessão — a janela de contexto, qualquer scratchpad ou estado que mantém durante uma tarefa multi-etapas. Memória de longo prazo é informação que persiste entre sessões: seu nome, suas preferências, projetos passados que você discutiu, decisões que tomou. A maioria dos produtos de IA para consumidores agora oferece alguma forma de memória de longo prazo. O recurso "Memória" do ChatGPT extrai fatos-chave de conversas e os armazena como trechos de texto que são injetados em conversas futuras. A memória do Claude funciona de forma similar, com usuários podendo salvar contexto no nível do projeto. Esses sistemas tipicamente usam uma etapa de sumarização — um modelo de IA lê a conversa e extrai os pontos importantes — em vez de armazenar transcrições brutas, que rapidamente sobrecarregariam a janela de contexto.

RAG como Memória Externa

Para aplicações que precisam lembrar grandes volumes de informação — um codebase inteiro, a documentação de uma empresa, anos de interações com clientes — geração aumentada por recuperação (RAG) serve como forma de memória externa. Em vez de enfiar tudo na janela de contexto, você armazena documentos como embeddings vetoriais num banco de dados e recupera apenas as partes relevantes quando necessário. É assim que a maioria dos assistentes de IA empresariais funciona: quando você faz uma pergunta, o sistema busca em sua base de conhecimento, puxa os top-k chunks relevantes e os alimenta ao modelo junto com sua consulta. O modelo não "lembra" da base de conhecimento completa, mas tem acesso sob demanda a ela, o que é funcionalmente similar. O trade-off é latência e relevância — busca vetorial adiciona 100–500ms por consulta, e a qualidade da resposta depende inteiramente de se a etapa de recuperação encontrou os documentos certos.

Os Problemas Difíceis

Memória introduz desafios que não existem em sistemas de IA sem estado. Obsolescência é o mais óbvio: se você disse ao Claude seis meses atrás que estava trabalhando num projeto Python, mas desde então mudou para Rust, essa memória desatualizada se torna enganosa. A maioria dos sistemas de memória não tem um bom mecanismo para expirar ou atualizar fatos armazenados — acumulam informação mas raramente a podam. Privacidade é outro campo minado: se uma IA lembra que você mencionou uma condição de saúde, uma situação financeira ou uma estratégia de negócios confidencial, essa informação agora vive em um sistema que você não controla totalmente. Quem pode acessá-la? Pode ser deletada? É usada para treinar modelos futuros? Essas questões são a razão pela qual algumas implantações empresariais explicitamente desativam recursos de memória. Depois há o problema de coerência: quando um modelo puxa memórias de muitas conversas diferentes, pode produzir respostas que são tecnicamente informadas pelo seu histórico mas contextualmente confusas — misturando detalhes de projetos diferentes ou aplicando preferências desatualizadas a novas situações.

O Futuro da Memória de IA

A fronteira da pesquisa em memória de IA está se movendo em direção a sistemas que não apenas armazenam e recuperam fatos, mas ativamente organizam e atualizam sua compreensão ao longo do tempo. Infini-attention do Google e técnicas similares visam dar a modelos transformer uma forma de memória de longo prazo comprimida dentro da própria arquitetura, em vez de depender de bancos de dados externos. Sistemas de memória de agentes — usados por frameworks como AutoGPT e agentes com tool-use do Claude — mantêm estado estruturado através de tarefas multi-etapas, rastreando o que fizeram, o que aprenderam e o que ainda precisa acontecer. E personalização está ficando mais sofisticada: em vez de armazenar fatos planos ("usuário prefere Python"), sistemas de memória futuros construirão modelos de usuário mais ricos que capturam estilo de comunicação, nível de expertise, padrões de tomada de decisão e contexto de projeto. O objetivo é uma IA que não apenas lembra o que você disse — mas entende quem você é e como trabalhar com você, conversa após conversa.

Conceitos relacionados

← Todos os termos
← Aprendizado de máquina Meta AI →
ESC