Zubnet AIApprendreWiki › Modèle du monde
Modèles

Modèle du monde

Aussi appelé : Modèle interne du monde, simulateur appris
Un modèle qui construit une représentation interne du fonctionnement du monde — pas seulement des corrélations statistiques mais des relations causales, des lois physiques et du raisonnement spatial. Le débat sur la question de savoir si les LLM possèdent des modèles du monde est l'un des plus controversés en IA : comprennent-ils vraiment que les objets tombent quand on les lâche, ou savent-ils simplement que « tombe » suit souvent « lâché » dans le texte ?

Pourquoi c'est important

Les modèles du monde sont au cœur de la question la plus importante en IA : la compréhension nécessite-t-elle plus que de la reconnaissance de patterns ? Si les LLM construisent de véritables modèles du monde, ils sont plus proches de la compréhension qu'on ne le pensait. Si ce n'est pas le cas, il y a une lacune fondamentale de capacité que la mise à l'échelle seule ne comblera pas. La réponse a des implications massives pour la sécurité de l'IA, les capacités et le chemin vers une intelligence plus générale.

En profondeur

Des preuves que les LLM construisent peut-être des modèles du monde : ils peuvent jouer aux échecs (nécessitant du raisonnement spatial), résoudre des problèmes de physique inédits, générer du code fonctionnel pour des algorithmes décrits (nécessitant du raisonnement causal sur l'exécution de programmes) et naviguer de façon cohérente dans des mondes textuels. La recherche de Li et al. (2023) a montré qu'un modèle entraîné uniquement sur des transcriptions de parties d'Othello a développé une représentation interne de l'état du plateau — un modèle du monde littéral émergeant de la prédiction de séquences.

Arguments contre

Les LLM font des erreurs qui suggèrent de la reconnaissance de patterns plutôt que de la compréhension : ils peinent avec le raisonnement spatial (« je marche vers le nord, puis vers l'est, puis vers le sud — où suis-je par rapport au départ ? »), échouent sur le raisonnement physique inédit (situations absentes des données d'entraînement), et peuvent être piégés par de simples modifications de problèmes familiers (changer les chiffres dans un problème de maths qu'ils résolvaient correctement dans sa forme standard). Ces échecs suggèrent que le modèle a appris des patterns de surface, pas les mécanismes sous-jacents.

Le juste milieu

La vue émergente : les LLM construisent des modèles du monde partiels et approximatifs qui fonctionnent bien pour les situations courantes mais s'effondrent aux limites. Ils apprennent des représentations utiles du fonctionnement du monde — assez bonnes pour la plupart des tâches de génération de texte — mais ces représentations sont incomplètes, incohérentes et non ancrées dans l'expérience physique réelle. Que cela constitue de la « compréhension » dépend de ta définition. Ce qui est pratique : les modèles du monde des LLM sont utiles mais ne devraient pas être fiables pour le raisonnement physique critique sans vérification.

Concepts connexes

← Tous les termes
← Modèle de récompense Modélisation par langage masqué →