Zubnet AIApprendreWiki › World Model
Models

World Model

Internal World Model, Apprendreed Simulator
Un modèle qui construit une représentation interne de comment le monde fonctionne — pas juste des corrélations statistiques mais des relations causales, des lois physiques et du raisonnement spatial. Le débat sur si les LLM ont des world models est un des plus contentieux en IA : est-ce qu'ils comprennent vraiment que les objets tombent quand on les lâche, ou est-ce qu'ils savent juste que « tombe » suit souvent « lâché » dans le texte ?

Pourquoi c'est important

Les world models sont au cœur de la question la plus importante en IA : est-ce que la compréhension demande plus que du pattern matching ? Si les LLM construisent de vrais world models, ils sont plus proches de la compréhension qu'on pensait. S'ils ne le font pas, il y a un écart de capacité fondamental que le scaling seul ne fermera pas. La réponse a des implications massives pour la sécurité IA, la capacité et le chemin vers une intelligence plus générale.

Deep Dive

Evidence that LLMs may build world models: they can play chess (requiring spatial reasoning), solve novel physics problems, generate working code for described algorithms (requiring causal reasoning about program execution), and navigate text-based worlds consistently. Research by Li et al. (2023) showed that a model trained only on Othello game transcripts developed an internal representation of the board state — a literal world model emerging from sequence prediction.

Evidence Against

LLMs make errors that suggest pattern matching rather than understanding: they struggle with spatial reasoning ("I walk north, then east, then south — where am I relative to the start?"), fail at novel physical reasoning (situations not in training data), and can be tripped up by simple modifications to familiar problems (changing numbers in a math problem they solved correctly in standard form). These failures suggest the model learned surface patterns, not underlying mechanisms.

The Middle Ground

The emerging view: LLMs build partial, approximate world models that work well for common situations but break down at the edges. They learn useful representations of how the world works — good enough for most text generation tasks — but these representations are incomplete, inconsistent, and not grounded in actual physical experience. Whether this constitutes "understanding" depends on your definition. What's practical: LLM world models are useful but shouldn't be trusted for safety-critical physical reasoning without verification.

Concepts liés

← Tous les termes
← Word Embedding xAI →