Zubnet AIAprenderWiki › Visión por computadora
Fundamentos

Visión por computadora

También conocido como: Visión artificial, visión por máquina
El campo de la IA enfocado en permitir que las máquinas interpreten y entiendan información visual del mundo — imágenes, video, escenas 3D y documentos. La visión por computadora potencia todo, desde reconocimiento facial y conducción autónoma hasta imágenes médicas y generación de imágenes con IA. Las tareas centrales incluyen detección de objetos, clasificación de imágenes, segmentación, OCR y estimación de pose.

Por qué importa

La visión por computadora fue la primera área donde el deep learning superó claramente el rendimiento humano (ImageNet 2012), y sigue siendo una de las aplicaciones de IA con mayor impacto comercial. Cada imagen o video generado por IA, cada documento que procesas con OCR, cada cámara de seguridad con detección inteligente — todo es visión por computadora.

En profundidad

La visión por computadora moderna descansa sobre una base construida en 2012, cuando una red neuronal convolucional llamada AlexNet ganó la competencia ImageNet por un margen impactante. Antes de eso, la visión por computadora dependía de features diseñadas a mano — los ingenieros definían manualmente cómo se veía un "borde" o una "esquina" o una "textura", y luego construían clasificadores sobre esas features. AlexNet probó que una red neuronal profunda entrenada con suficientes imágenes etiquetadas podía aprender sus propias features, y cada avance subsecuente en el campo ha seguido ese principio. Las arquitecturas han evolucionado de CNNs (AlexNet, VGG, ResNet) a Vision Transformers (ViT, que aplica el mismo mecanismo de atención usado en modelos de lenguaje a parches de imagen) a diseños híbridos que combinan lo mejor de ambos. Hoy, los sistemas de visión más capaces — como los que potencian la comprensión de imágenes de GPT-4o o Gemini de Google — son transformers multimodales que procesan imágenes y texto en una arquitectura unificada.

Tareas centrales y cómo funcionan

La visión por computadora abarca varias tareas distintas, cada una con sus propios desafíos. La clasificación de imágenes asigna una etiqueta a una imagen completa ("esto es un gato"). La detección de objetos encuentra objetos específicos dentro de una imagen y dibuja cuadros delimitadores alrededor de ellos — YOLO (You Only Look Once) y sus descendientes siguen siendo la familia preferida para detección en tiempo real, procesando video a 30–100+ cuadros por segundo. La segmentación semántica etiqueta cada pixel individual en una imagen (este pixel es "carretera", ese pixel es "peatón"), lo cual es crítico para la conducción autónoma. La segmentación de instancias va más allá, distinguiendo entre objetos separados de la misma clase (este peatón vs. aquel peatón). El Segment Anything Model (SAM) de Meta hizo práctica la segmentación zero-shot en 2023, permitiendo segmentar cualquier objeto en cualquier imagen sin entrenamiento específico de tarea. Y el OCR (reconocimiento óptico de caracteres) ha sido transformado por los modelos de visión-lenguaje — en lugar de motores OCR especializados, ahora puedes alimentar una imagen de documento a un modelo multimodal y obtener extracción de texto estructurado que entiende tablas, escritura a mano y diseño de página.

La revolución generativa

La visión por computadora no solo se trata de entender imágenes — cada vez más se trata de crearlas. Los modelos de difusión (Stable Diffusion, DALL-E 3, Midjourney) generan imágenes aprendiendo a revertir un proceso de ruido: comenzar con ruido puro y eliminarlo iterativamente hasta obtener una imagen coherente, guiada por un prompt de texto. Este enfoque produce resultados impresionantes pero es computacionalmente costoso — generar una sola imagen de 1024x1024 requiere 20–50 pasos de eliminación de ruido, cada uno involucrando una pasada completa por una U-Net o transformer de mil millones de parámetros. La generación de video extiende esto a la dimensión temporal: modelos como Runway Gen-3, Sora y Kling generan video tratándolo como una secuencia de cuadros que deben ser espacial y temporalmente coherentes. La calidad ha mejorado notablemente rápido — de clips obviamente artificiales en 2023 a videos cortos casi fotorrealistas en 2025 — aunque mantener la consistencia en duraciones más largas (identidad de personajes, física, permanencia de objetos) sigue siendo un desafío abierto.

Visión en el mundo real

La brecha entre benchmarks de investigación y despliegue en el mundo real es donde la visión por computadora se vuelve difícil. Un modelo que logra 99% de precisión en ImageNet puede fallar espectacularmente cuando se enfrenta a iluminación inusual, desenfoque por movimiento, oclusión o condiciones adversariales. Los vehículos autónomos son el ejemplo de mayor riesgo: el enfoque de solo-visión de Tesla usa ocho cámaras y una red neuronal personalizada para interpretar la escena de conducción en tiempo real, mientras que Waymo fusiona datos de cámara con nubes de puntos lidar para redundancia. Las imágenes médicas son otra frontera — sistemas de IA de empresas como PathAI y Paige pueden detectar cáncer en láminas de histología con precisión que rivaliza con patólogos experimentados, pero la aprobación regulatoria (autorización de la FDA en EE.UU., marcado CE en Europa) añade años a los plazos de despliegue. La inspección industrial, analítica retail, monitoreo agrícola y análisis de imágenes satelitales son todas aplicaciones maduras de visión por computadora donde la tecnología ha pasado más allá de la etapa de prueba de concepto al uso diario en producción.

Convergencia multimodal

La tendencia más significativa en visión por computadora en este momento es su fusión con la comprensión del lenguaje. El paradigma anterior eran modelos de visión especializados para tareas especializadas — un modelo para detección, otro para segmentación, otro para captioning. El nuevo paradigma es un solo modelo multimodal que puede ver y hablar sobre lo que ve. GPT-4o, Claude y Gemini pueden todos aceptar imágenes como entrada y razonar sobre ellas en lenguaje natural: "¿Qué está mal con esta placa de circuito?" o "Extrae los datos de este gráfico". Esta convergencia está potenciada por codificadores de visión (como SigLIP o EVA-CLIP) que traducen imágenes al mismo espacio de embedding que el texto, permitiendo que el modelo de lenguaje atienda a features visuales junto con palabras. El impacto práctico es enorme — tareas que antes requerían pipelines personalizados de visión por computadora con meses de desarrollo ahora pueden lograrse con una sola llamada de API a un modelo multimodal.

Conceptos relacionados

← Todos los términos
← Cohere Moderación de contenido →
ESC