Zubnet AIApprendreWiki › Feature
Fondamentaux

Feature

Apprendreed Representation, Activation
Un pattern ou concept qu'un réseau de neurones apprend à détecter dans son entrée. En vision, les features des premières couches sont les contours et les textures ; les features des dernières couches sont des parties d'objets et des objets entiers. Dans les modèles de langage, les features vont du simple (la lettre « a », un pattern de syntaxe spécifique) à l'abstrait (le concept de sarcasme, une stratégie de raisonnement particulière). Les features sont représentées comme des patterns d'activation à travers les neurones.

Pourquoi c'est important

Les features sont ce que les modèles apprennent vraiment — pas des faits individuels mais des patterns qui généralisent. Un modèle ne mémorise pas « les chats ont de la fourrure » ; il apprend un détecteur de feature pour les textures de type fourrure qui s'active pour les chats, chiens et ours en peluche. Comprendre les features aide à expliquer le comportement du modèle : pourquoi il généralise (les features se transfèrent), pourquoi il échoue (mauvaise feature activée) et comment l'améliorer (l'exposer à plus de features diverses).

Deep Dive

The term "feature" has different meanings depending on context. In classical ML, features are hand-engineered input variables (height, weight, age). In deep learning, features are learned representations in hidden layers — the model discovers useful patterns on its own. This shift from hand-engineered to learned features is the core innovation of deep learning and why it outperforms classical ML on complex tasks like vision and language.

Hierarchical Features

Deep networks learn hierarchical features: each layer builds on the previous one. In a vision model: layer 1 detects edges, layer 2 combines edges into textures and corners, layer 3 combines textures into object parts (eyes, wheels), layer 4 combines parts into objects (faces, cars). This hierarchy emerges automatically from training — no one programs it. The same hierarchical feature learning happens in language models, from character patterns to syntax to semantics to reasoning.

Feature Visualization

Researchers visualize features to understand what models learn. For vision models, you can generate images that maximally activate a specific neuron or direction, revealing what pattern it detects. For language models, you can find the text examples that most activate a specific feature direction. Anthropic's research has visualized features in Claude, finding interpretable concepts like "Golden Gate Bridge," "code bugs," "deception," and "French language" encoded as specific directions in the model's activation space.

Concepts liés

← Tous les termes
← Existential Risk Federated Apprendreing →