Zubnet AIAprenderWiki › Aprendizado Auto-Supervisionado
Treinamento

Aprendizado Auto-Supervisionado

Também conhecido como: SSL
Uma abordagem de treinamento onde o modelo gera seu próprio sinal de supervisão a partir de dados não rotulados. Esconda parte da entrada, treine para prever a parte escondida. Para LLMs: mascare o próximo token e preveja-o. Para visão: mascare partes da imagem.

Por que isso importa

O aprendizado auto-supervisionado é a inovação que tornou a IA moderna possível. Ele desbloqueou o treinamento com toda a internet em vez de datasets caros rotulados manualmente.

Em profundidade

Duas abordagens dominantes: LM causal (prever próximo token → GPT/Claude/Llama) e LM mascarado (prever tokens mascarados → BERT). Aprendizado contrastivo (CLIP, SimCLR) é outra forma usada em visão e embeddings.

Por Que Mudou Tudo

Antes do aprendizado auto-supervisionado, modelos de linguagem eram limitados pelo volume de dados rotulados disponíveis. Auto-supervisão transformou cada frase na internet em um exemplo de treinamento: esconda uma palavra, preveja-a. Isso permitiu treinar em trilhões de tokens sem um único anotador humano, produzindo os modelos de fundação que conhecemos hoje.

Além de Texto

A mesma ideia funciona para imagens (MAE — Masked Autoencoders), áudio (wav2vec) e vídeo. CLIP conecta texto e imagem treinando para alinhar pares correspondentes. Essa universalidade é o que torna a auto-supervisão tão fundamental — qualquer modalidade com estrutura pode fornecer seu próprio sinal de treinamento.

Conceitos relacionados

← Todos os termos
← Apple Intelligence Aprendizado Contrastivo →