Zubnet AIAprenderWiki › Colapso de Modelo
Treinamento

Colapso de Modelo

Também conhecido como: Loop de Feedback de Dados
A degradação que ocorre quando modelos de IA são treinados em dados gerados por modelos de IA anteriores, criando um loop de feedback onde erros e viéses se acumulam entre gerações. Cada geração perde alguma diversidade e amplifica alguns artefatos da anterior, eventualmente produzindo modelos que geram saídas repetitivas, genéricas ou distorcidas.

Por que isso importa

O colapso de modelo é a bomba-relógio da era de conteúdo gerado por IA. À medida que a internet se enche de texto gerado por IA (estimado em 10–50% do novo conteúdo web), futuros modelos treinados em scrapes da web inevitavelmente ingerirão saídas de IA. Se isso não for cuidadosamente gerenciado, a qualidade dos modelos pode estagnar ou degradar. É por isso que curação de dados e rastreamento de procedência estão se tornando infraestrutura crítica.

Em profundidade

O mecanismo: um modelo treinado em dados reais captura a distribuição de forma imperfeita — superestima alguns padrões e perde outros. Quando um segundo modelo treina nas saídas do primeiro, ele captura a distribuição imperfeita do primeiro modelo, amplificando os erros. Pela geração 5 ou 10, a distribuição colapsou para uma versão estreita e distorcida da original. Shumailov et al. (2023) demonstraram isso empiricamente em múltiplos tipos de modelos.

O Problema de Contaminação da Internet

A preocupação prática: datasets de pré-treinamento são tipicamente coletados da web, e a web contém cada vez mais conteúdo gerado por IA. Se 20% de um corpus de treinamento é gerado por IA, e esse conteúdo de IA tem os mesmos viéses estatísticos do modelo sendo treinado, esses viéses são reforçados. O resultado não é falha catastrófica, mas homogeneização gradual — modelos que soam cada vez mais parecidos uns com os outros e menos com a diversidade da expressão humana.

Mitigações

Soluções incluem: detectar e filtrar conteúdo gerado por IA dos dados de treinamento (difícil em escala), misturar dados gerados por IA com dados humanos verificados (mantendo um "piso de dados humanos"), marcar saídas de IA com watermarks para permitir filtragem, e manter datasets curados, livres de IA como referência. Alguns pesquisadores argumentam que o colapso de modelo é exagerado se os dados forem adequadamente diversificados e controlados por qualidade, mas o risco é levado a sério o suficiente para que grandes laboratórios invistam em procedência de dados.

Conceitos relacionados

← Todos os termos
← Cohere Computação em Tempo de Teste →