Zubnet AIApprendreWiki › Dataset
Fondamentaux

Dataset

Training Set, Data
Une collection structurée de données utilisée pour entraîner, évaluer ou tester un modèle de machine learning. Les datasets peuvent être étiquetés (chaque exemple a une réponse correcte connue) ou non étiquetés (données brutes sans annotations). La qualité, la taille, la diversité et la représentativité d'un dataset déterminent fondamentalement ce qu'un modèle peut apprendre.

Pourquoi c'est important

Poubelle entrée, poubelle sortie. L'architecture la plus élégante entraînée sur un mauvais dataset va produire de mauvais résultats. À l'inverse, un modèle simple entraîné sur des données excellentes surpasse souvent un modèle complexe entraîné sur du bruit. La curation de dataset est sans doute la partie la plus impactante et la moins glamour du développement de l'IA.

Deep Dive

Datasets come in many forms: text corpora for language models, labeled images for classifiers, question-answer pairs for fine-tuning, preference pairs for alignment, and benchmark datasets for evaluation. The distinction between training set (what the model learns from), validation set (what guides hyperparameter tuning), and test set (what measures final performance) is fundamental — evaluating on training data is meaningless because the model has memorized it.

The Data Scaling Story

LLM pre-training datasets have grown from millions of tokens (early GPT) to trillions (modern models). Common Crawl, Wikipedia, books, code repositories, scientific papers, and curated web text form the typical mix. But more data isn't always better — the Chinchilla scaling laws showed that data quality and quantity must scale together with model size. Deduplication, filtering toxic or low-quality content, and balancing domains are all critical steps.

Bias Lives in the Data

Every dataset carries the biases of its sources. A model trained mostly on English web text will perform worse on other languages. A dataset scraped from the internet inherits society's prejudices. This isn't a problem you can fix with architecture — it requires careful data curation, auditing, and post-training mitigation. The most impactful AI ethics work often happens at the dataset level.

Concepts liés

← Tous les termes
← Data Centers Decart AI →