Zubnet AIAprenderWiki › Superposition
Fundamentos

Superposition

Feature Superposition, Polysemanticity
O fenômeno onde redes neurais codificam muito mais features (conceitos, padrões) do que têm neurônios, representando features como direções no espaço de ativação em vez de dedicar neurônios individuais a features individuais. Um único neurônio participa em codificar dezenas de features simultaneamente, e cada feature é distribuída através de muitos neurônios.

Por que importa

Superposição é por que redes neurais são difíceis de interpretar e por que interpretabilidade mecanística é desafiadora. Se cada neurônio representasse um conceito (como “o conceito de cachorros”), a interpretação seria direta. Em vez disso, conceitos estão espalhados através de neurônios em padrões sobrepostos. Entender superposição é chave para entender tanto como redes neurais comprimem informação quanto por que elas às vezes se comportam inesperadamente.

Deep Dive

The key insight: a model with 4096 neurons per layer can represent far more than 4096 features by using the full 4096-dimensional space. Each feature is a direction (a vector) in this space, and features can overlap as long as they're not too similar. This is mathematically analogous to compressed sensing — you can store more signals than dimensions if the signals are sparse (only a few are active at any time).

Why Models Do This

Models learn superposition because the world has more features than any practical model has dimensions. A model needs to represent thousands of concepts (colors, emotions, syntax rules, factual knowledge, code patterns), but might only have 4096 dimensions per layer. Superposition lets it pack all these features into the available space, at the cost of some interference when multiple overlapping features activate simultaneously.

Implications for Safety

Superposition has direct implications for AI safety. If a "deception" feature is superimposed with other benign features, it's hard to detect and remove. Sparse autoencoders (used in mechanistic interpretability) try to disentangle superposition by finding the individual feature directions, but the number of features in a large model may be enormous — Anthropic identified millions of interpretable features in Claude. Understanding and controlling superposition is a central challenge for making AI systems reliably safe.

Conceitos relacionados

← Todos os termos
← Suno Supervised Aprendering →