Zubnet AIApprendreWiki › Benchmarks IA
Fondamentaux

Benchmarks IA

Aussi appelé : MMLU, HumanEval, ARC, HellaSwag
Des tests standardisés utilisés pour mesurer et comparer les capacités des modèles d'IA. MMLU teste les connaissances dans 57 matières académiques. HumanEval teste la génération de code. ARC teste le raisonnement scientifique. HellaSwag teste le raisonnement de bon sens. GSM8K teste les mathématiques. Les scores de benchmarks fournissent un langage commun pour comparer les modèles, bien qu'ils aient des limitations significatives.

Pourquoi c'est important

Les benchmarks sont la façon dont l'industrie tient le score. Quand Anthropic dit que Claude obtient X % sur MMLU et Y % sur HumanEval, ces chiffres n'ont de sens que si tu sais ce que les benchmarks testent, comment ils sont notés et quelles sont leurs limitations. Comprendre les benchmarks t'aide à voir au-delà des claims marketing et à évaluer quel modèle est vraiment le meilleur pour ton cas d'usage spécifique.

En profondeur

Benchmarks clés : MMLU (Massive Multitask Language Understanding) — 14 042 questions à choix multiples dans 57 matières des STIM aux sciences humaines. HumanEval — 164 problèmes de codage testant la génération de fonctions en Python. ARC (AI2 Reasoning Challenge) — questions d'examens de sciences nécessitant du raisonnement. HellaSwag — complétion de phrases testant les connaissances de bon sens. GSM8K — 8 500 problèmes de mathématiques de niveau primaire. Chacun teste une capacité différente.

Pourquoi les benchmarks posent problème

Plusieurs enjeux : la contamination (les questions de test apparaissent dans les données d'entraînement, gonflant les scores), la saturation (quand tous les modèles obtiennent 95 %+, le benchmark cesse de discriminer), le gaming (entraîner spécifiquement pour maximiser les scores de benchmark sans véritablement améliorer les capacités), et la couverture étroite (les benchmarks testent ce qui est testable, pas nécessairement ce qui compte pour les utilisateurs). Un modèle qui obtient 90 % sur MMLU pourrait être pire pour aider un utilisateur qu'un modèle à 80 % qui suit mieux les instructions.

Au-delà des benchmarks statiques

Le domaine évolue : Chatbot Arena utilise les préférences humaines en temps réel (difficile à contaminer, toujours actuel). LiveBench utilise des questions fréquemment renouvelées. SEAL et d'autres benchmarks privés gardent les données de test secrètes. Des évaluations spécifiques aux tâches (SWE-bench pour la résolution de vrais problèmes GitHub, GPQA pour les sciences au niveau doctorat) testent des capacités que les benchmarks généraux manquent. La tendance est vers une évaluation qui ressemble plus à l'usage réel et moins aux examens standardisés.

Concepts connexes

← Tous les termes
← Benchmark BERT →