Zubnet AIAprenderWiki › Vision
Using AI

Vision

Multimodal Vision, Image Understanding
La capacidad de un modelo de lenguaje de entender y razonar sobre imágenes junto con texto. Envías una foto y preguntas «¿qué hay en esta imagen?» o subes un gráfico y preguntas «resume las tendencias». Los modelos con visión (Claude, GPT-4V, Gemini) codifican imágenes en tokens que el modelo de lenguaje procesa junto con tokens de texto, habilitando razonamiento unificado de texto e imagen.

Por qué importa

La visión transforma lo que los LLMs pueden hacer. En vez de describir un bug en palabras, le tomas un screenshot. En vez de tipear una tabla, la fotografías. En vez de explicar un diagrama, lo compartes. La visión hace la IA accesible para tareas donde el texto solo es insuficiente — lo cual es la mayoría de tareas del mundo real. Es la capacidad multimodal más impactante para usuarios cotidianos.

Deep Dive

The typical architecture: images are processed by a vision encoder (usually a Vision Transformer or CLIP variant) that converts image pixels into a sequence of visual tokens. These tokens are projected into the same embedding space as text tokens and concatenated with the text input. The language model then processes both visual and text tokens together through its standard attention layers, enabling cross-modal reasoning.

What Models Can (and Can't) See

Current vision models excel at: describing image content, reading text in images (OCR), understanding charts and diagrams, identifying objects and people (when appropriate), and reasoning about spatial relationships. They struggle with: precise counting (especially in cluttered scenes), fine-grained spatial reasoning ("is A above or below B?"), reading small or stylized text, and understanding images that require domain expertise (medical scans, specialized equipment).

Resolution and Cost

Higher resolution images produce more visual tokens, consuming more context window and costing more. Most providers automatically resize or tile images to balance quality and cost. A typical image might produce 500–2000 tokens. Understanding this helps you optimize: don't send a 4K screenshot when a 1080p crop of the relevant area would work better and cost less.

Conceptos relacionados

← Todos los términos
← Vidu Vision Transformer →