Zubnet AIApprendreWiki › Vision
Using AI

Vision

Multimodal Vision, Image Understanding
La capacité d'un modèle de langage à comprendre et raisonner sur des images à côté du texte. Tu envoies une photo et tu demandes « qu'est-ce qui est dans cette image ? » ou tu uploadais un graphique et tu demandes « résume les tendances. » Les modèles avec vision (Claude, GPT-4V, Gemini) encodent les images en tokens que le modèle de langage traite à côté des tokens de texte, permettant un raisonnement texte-et-image unifié.

Pourquoi c'est important

La vision transforme ce que les LLM peuvent faire. Au lieu de décrire un bug en mots, tu en prends un screenshot. Au lieu de taper un tableau, tu le photographies. Au lieu d'expliquer un diagramme, tu le partages. La vision rend l'IA accessible pour les tâches où le texte seul est insuffisant — ce qui est la plupart des tâches du monde réel. C'est la capacité multimodale la plus impactante pour les utilisateurs de tous les jours.

Deep Dive

The typical architecture: images are processed by a vision encoder (usually a Vision Transformer or CLIP variant) that converts image pixels into a sequence of visual tokens. These tokens are projected into the same embedding space as text tokens and concatenated with the text input. The language model then processes both visual and text tokens together through its standard attention layers, enabling cross-modal reasoning.

What Models Can (and Can't) See

Current vision models excel at: describing image content, reading text in images (OCR), understanding charts and diagrams, identifying objects and people (when appropriate), and reasoning about spatial relationships. They struggle with: precise counting (especially in cluttered scenes), fine-grained spatial reasoning ("is A above or below B?"), reading small or stylized text, and understanding images that require domain expertise (medical scans, specialized equipment).

Resolution and Cost

Higher resolution images produce more visual tokens, consuming more context window and costing more. Most providers automatically resize or tile images to balance quality and cost. A typical image might produce 500–2000 tokens. Understanding this helps you optimize: don't send a 4K screenshot when a 1080p crop of the relevant area would work better and cost less.

Concepts liés

← Tous les termes
← Vidu Vision Transformer →