Zubnet AIAprenderWiki › Visão computacional
Fundamentos

Visão computacional

Também conhecido como: Visão por computador, visão de máquina
O campo da IA focado em permitir que máquinas interpretem e compreendam informações visuais do mundo — imagens, vídeo, cenas 3D e documentos. Visão computacional alimenta tudo, desde reconhecimento facial e direção autônoma até imagem médica e geração de imagens com IA. Tarefas centrais incluem detecção de objetos, classificação de imagens, segmentação, OCR e estimação de pose.

Por que isso importa

Visão computacional foi a primeira área onde deep learning claramente superou o desempenho humano (ImageNet 2012), e continua sendo uma das aplicações de IA com maior impacto comercial. Toda imagem ou vídeo de IA que você gera, todo documento que passa por OCR, toda câmera de segurança com detecção inteligente — tudo isso é visão computacional.

Em profundidade

A visão computacional moderna se assenta sobre uma fundação construída em 2012, quando uma rede neural convolucional chamada AlexNet venceu a competição ImageNet por uma margem chocante. Antes disso, visão computacional dependia de features artesanais — engenheiros definiam manualmente como era uma "borda", um "canto" ou uma "textura", e então construíam classificadores em cima dessas features. A AlexNet provou que uma rede neural profunda treinada em imagens rotuladas suficientes podia aprender suas próprias features, e toda descoberta subsequente no campo seguiu esse princípio. As arquiteturas evoluíram de CNNs (AlexNet, VGG, ResNet) para Vision Transformers (ViT, que aplica o mesmo mecanismo de atenção usado em modelos de linguagem a patches de imagem) até designs híbridos que combinam o melhor de ambos. Hoje, os sistemas de visão mais capazes — como os que alimentam a compreensão de imagem do GPT-4o ou o Gemini do Google — são transformers multimodais que processam imagens e texto em uma arquitetura unificada.

Tarefas Centrais e Como Funcionam

Visão computacional engloba várias tarefas distintas, cada uma com seus próprios desafios. Classificação de imagem atribui um rótulo a uma imagem inteira ("isso é um gato"). Detecção de objetos encontra objetos específicos dentro de uma imagem e desenha bounding boxes ao redor deles — YOLO (You Only Look Once) e seus descendentes continuam sendo a família padrão para detecção em tempo real, processando vídeo a 30–100+ frames por segundo. Segmentação semântica rotula cada pixel em uma imagem (este pixel é "estrada", aquele pixel é "pedestre"), o que é crítico para direção autônoma. Segmentação de instância vai além, distinguindo entre objetos separados da mesma classe (este pedestre vs. aquele pedestre). O Segment Anything Model (SAM) da Meta tornou a segmentação zero-shot prática em 2023, permitindo segmentar qualquer objeto em qualquer imagem sem treinamento específico. E OCR (reconhecimento óptico de caracteres) foi transformado por modelos visão-linguagem — em vez de motores de OCR especializados, você pode alimentar uma imagem de documento a um modelo multimodal e obter extração de texto estruturado que entende tabelas, escrita à mão e layout.

A Revolução Generativa

Visão computacional não se trata apenas de entender imagens — trata-se cada vez mais de criá-las. Modelos de difusão (Stable Diffusion, DALL-E 3, Midjourney) geram imagens aprendendo a reverter um processo de ruído: começam com ruído puro e iterativamente o removem até formar uma imagem coerente, guiados por um prompt de texto. Essa abordagem produz resultados impressionantes mas é computacionalmente cara — gerar uma única imagem 1024x1024 requer 20–50 passos de denoising, cada um envolvendo um forward pass completo através de uma U-Net ou transformer de bilhões de parâmetros. Geração de vídeo estende isso para a dimensão temporal: modelos como Runway Gen-3, Sora e Kling geram vídeo tratando-o como uma sequência de frames que devem ser espacial e temporalmente coerentes. A qualidade melhorou notavelmente rápido — de clipes obviamente artificiais em 2023 a vídeos curtos quase fotorrealistas em 2025 — embora manter consistência em durações mais longas (identidade de personagem, física, permanência de objetos) continue sendo um desafio em aberto.

Visão no Mundo Real

A lacuna entre benchmarks de pesquisa e implantação no mundo real é onde visão computacional fica difícil. Um modelo que alcança 99% de precisão no ImageNet pode falhar espetacularmente quando confrontado com iluminação incomum, desfoque de movimento, oclusão ou condições adversariais. Veículos autônomos são o exemplo de maior risco: a abordagem só-visão da Tesla usa oito câmeras e uma rede neural customizada para interpretar a cena de direção em tempo real, enquanto a Waymo funde dados de câmera com nuvens de pontos lidar para redundância. Imagem médica é outra fronteira — sistemas de IA de empresas como PathAI e Paige podem detectar câncer em lâminas de histologia com precisão que rivaliza com patologistas experientes, mas aprovação regulatória (liberação da FDA nos EUA, marcação CE na Europa) adiciona anos aos prazos de implantação. Inspeção industrial, analytics de varejo, monitoramento agrícola e análise de imagens de satélite são todas aplicações maduras de visão computacional onde a tecnologia ultrapassou o estágio de prova de conceito para uso diário em produção.

Convergência Multimodal

A tendência mais significativa em visão computacional agora é sua fusão com compreensão de linguagem. O paradigma antigo era modelos de visão especializados para tarefas especializadas — um modelo para detecção, outro para segmentação, outro para legenda. O novo paradigma é um único modelo multimodal que pode ver e falar sobre o que vê. GPT-4o, Claude e Gemini podem todos aceitar imagens como entrada e raciocinar sobre elas em linguagem natural: "O que há de errado com esta placa de circuito?" ou "Extraia os dados deste gráfico." Essa convergência é alimentada por encoders de visão (como SigLIP ou EVA-CLIP) que traduzem imagens no mesmo espaço de embedding que texto, permitindo que o modelo de linguagem atenda a features visuais junto com palavras. O impacto prático é enorme — tarefas que antes exigiam pipelines customizados de visão computacional com meses de desenvolvimento agora podem ser realizadas com uma única chamada de API a um modelo multimodal.

Conceitos relacionados

← Todos os termos
← Cohere Moderação de conteúdo →
ESC