Zubnet AIAprenderWiki › BERT
Modelos

BERT

Também conhecido como: Bidirectional Encoder Representations from Transformers
Um modelo baseado em Transformer do Google (2018) que revolucionou o NLP ao introduzir pré-treinamento bidirecional — cada token pode prestar atenção a todos os outros tokens, dando ao modelo uma compreensão contextual profunda. BERT é um modelo encoder-only: ele se destaca na compreensão de texto (classificação, busca, NER) mas não consegue gerar texto como GPT ou Claude.

Por que isso importa

BERT é o paper de NLP mais influente da era moderna. Ele provou que pré-treinar em texto não rotulado e depois fazer fine-tuning em tarefas específicas podia esmagar todos os benchmarks existentes. Mesmo com os LLMs roubando os holofotes, modelos da família BERT ainda sustentam a maioria dos motores de busca em produção, sistemas de embedding e pipelines de classificação porque são menores, mais rápidos e mais baratos que LLMs para tarefas não-generativas.

Em profundidade

O treinamento do BERT usa dois objetivos: Masked Language Modeling (MLM) — mascara aleatoriamente 15% dos tokens e os prediz a partir do contexto — e Next Sentence Prediction (NSP) — prediz se duas sentenças são consecutivas. O MLM força a compreensão bidirecional porque o modelo deve usar tanto o contexto da esquerda quanto da direita para predizer as palavras mascaradas. Isso é fundamentalmente diferente da abordagem da esquerda para a direita do GPT.

Por que o BERT Ainda Importa

Na era dos LLMs, modelos da família BERT (RoBERTa, DeBERTa, DistilBERT) continuam sendo a espinha dorsal do NLP em produção. Eles são 100x menores que LLMs (110M–340M parâmetros vs. bilhões), 10x mais rápidos para inferência e frequentemente melhores para tarefas que não exigem geração. A maioria dos modelos de embedding usados em RAG e busca semântica são descendentes do BERT. O Google Search usou o BERT extensivamente antes de transicionar para modelos maiores.

BERT vs. GPT: A Divisão Arquitetural

BERT (encoder-only, bidirecional) e GPT (decoder-only, esquerda para direita) representam duas filosofias. BERT vê toda a entrada de uma vez — perfeito para compreensão. GPT vê apenas o que veio antes — perfeito para geração. O campo inicialmente pensou que encoder-decoder (T5) venceria combinando ambos. Em vez disso, decoder-only (abordagem GPT) venceu para LLMs porque escala de forma mais limpa, e você pode aproximar a compreensão bidirecional através de prompting inteligente.

Conceitos relacionados

← Todos os termos
← Benchmarks de IA Black Forest Labs →