Zubnet AIAprenderWiki › ControlNet
Models

ControlNet

Una arquitectura que añade control espacial a los modelos de generación de imágenes. En lugar de solo describir lo que quieres en texto («una persona de pie»), ControlNet te deja especificar cómo — proveyendo un mapa de bordes, mapa de profundidad, esqueleto de pose o mapa de segmentación que guía la composición. La imagen generada sigue la estructura espacial de tu entrada de control mientras rellena los detalles del prompt textual.

Por qué importa

ControlNet hizo la generación de imágenes IA usable para flujos de trabajo profesionales. Sin él, obtienes composiciones aleatorias y esperas por lo mejor. Con él, especificas la pose, disposición o estructura exactas que necesitas. Es la diferencia entre «genera algo vagamente como lo que quiero» y «genera exactamente esta composición con estos detalles» — crítico para diseño, publicidad y trabajo de producción.

Deep Dive

ControlNet (Zhang et al., 2023) works by creating a trainable copy of the diffusion model's encoder and connecting it to the original model via zero-initialized convolution layers. The control signal (edge map, pose, depth) is processed by this copy, and the features are added to the main model's corresponding layers. The zero initialization means the control starts with no effect and gradually learns to guide generation during training, preserving the original model's quality.

Control Types

Common control inputs: Canny edges (outline structure), OpenPose (human body pose), depth maps (3D structure), segmentation maps (which region is what), normal maps (surface orientation), and scribbles (rough sketches). Each control type requires a separately trained ControlNet. Multiple controls can be combined: a pose skeleton plus an edge map gives you both body position and structural details.

IP-Adapter and Beyond

Beyond spatial control, techniques like IP-Adapter provide style control: give a reference image and generate new images in the same style. T2I-Adapter is a lighter alternative to ControlNet that achieves similar control with fewer parameters. The trend is toward increasingly precise, composable control — specifying exactly what you want through a combination of text, spatial guides, style references, and iterative refinement.

Conceptos relacionados

← Todos los términos
← Contrastive Aprendering Copyright in AI →