Zubnet AIAprenderWiki › Vision
Using AI

Vision

Multimodal Vision, Image Understanding
A capacidade de um modelo de linguagem de entender e raciocinar sobre imagens junto com texto. Você envia uma foto e pergunta “o que tem nesta imagem?” ou faz upload de um gráfico e pergunta “sumarize as tendências”. Modelos com visão (Claude, GPT-4V, Gemini) codificam imagens em tokens que o modelo de linguagem processa junto com tokens de texto, habilitando raciocínio unificado de texto-e-imagem.

Por que importa

Visão transforma o que LLMs podem fazer. Em vez de descrever um bug em palavras, você tira um screenshot. Em vez de digitar uma tabela, você fotografa. Em vez de explicar um diagrama, você compartilha. Visão torna IA acessível para tarefas onde texto sozinho é insuficiente — o que é a maioria das tarefas do mundo real. É a capacidade multimodal mais impactante para usuários do dia-a-dia.

Deep Dive

The typical architecture: images are processed by a vision encoder (usually a Vision Transformer or CLIP variant) that converts image pixels into a sequence of visual tokens. These tokens are projected into the same embedding space as text tokens and concatenated with the text input. The language model then processes both visual and text tokens together through its standard attention layers, enabling cross-modal reasoning.

What Models Can (and Can't) See

Current vision models excel at: describing image content, reading text in images (OCR), understanding charts and diagrams, identifying objects and people (when appropriate), and reasoning about spatial relationships. They struggle with: precise counting (especially in cluttered scenes), fine-grained spatial reasoning ("is A above or below B?"), reading small or stylized text, and understanding images that require domain expertise (medical scans, specialized equipment).

Resolution and Cost

Higher resolution images produce more visual tokens, consuming more context window and costing more. Most providers automatically resize or tile images to balance quality and cost. A typical image might produce 500–2000 tokens. Understanding this helps you optimize: don't send a 4K screenshot when a 1080p crop of the relevant area would work better and cost less.

Conceitos relacionados

← Todos os termos
← Vidu Vision Transformer →