Zubnet AIAprenderWiki › Stable Diffusion
Modelos

Stable Diffusion

Também conhecido como: SD, SDXL, SD3
O modelo de geração de imagens open-source mais amplamente usado, criado pela Stability AI em colaboração com pesquisadores acadêmicos. Stable Diffusion gera imagens a partir de prompts de texto usando difusão latente — realizando o processo de denoising em um espaço latente comprimido em vez do espaço de pixels, tornando-o rápido o suficiente para rodar em GPUs de consumo. SD 1.5, SDXL e SD3 representam gerações sucessivas.

Por que isso importa

Stable Diffusion democratizou a geração de imagens com IA. Antes do SD, a geração de imagens exigia acesso caro a APIs (DALL-E) ou era limitada a pesquisa. Os pesos abertos do SD significavam que qualquer um podia rodá-lo localmente, ajustá-lo e construir em cima dele. Isso gerou um ecossistema enorme: fine-tunes com LoRA, ControlNet, modelos personalizados, checkpoints treinados pela comunidade e aplicações de Automatic1111 a ComfyUI.

Em profundidade

A arquitetura tem três componentes: um text encoder (CLIP ou T5) converte o prompt em embeddings, uma U-Net (SD 1.5/SDXL) ou DiT (SD3) realiza denoising iterativo no espaço latente, e um decoder VAE converte a representação latente final em uma imagem de resolução completa. A parte "latente" é a chave: em vez de fazer denoising em uma imagem 512×512 (786K valores), faz denoising em um latente 64×64 (4K valores), tornando a geração 50x mais rápida.

O Ecossistema

A natureza aberta do SD criou um ecossistema sem precedentes. Civitai e Hugging Face hospedam milhares de modelos treinados pela comunidade e fine-tunes LoRA (estilo anime, fotorealismo, personagens específicos). Frontends WebUI (Automatic1111, ComfyUI) fornecem interfaces para fluxos de trabalho complexos de geração. ControlNet, IP-Adapter e outras extensões adicionam controle além do prompting de texto. Nenhum outro modelo de IA gerou este nível de inovação comunitária.

SD3 e a Mudança de Arquitetura

O SD3 substituiu a U-Net por um DiT (Diffusion Transformer) e trocou difusão por flow matching, seguindo as tendências arquiteturais mais amplas do campo. Também usa três text encoders (CLIP-L, CLIP-G, T5-XXL) para melhor compreensão de prompts. O resultado: melhor renderização de texto, composições mais coerentes e melhor aderência a prompts. Mas o tamanho maior do modelo (2B+ parâmetros) torna mais difícil rodar em hardware de consumo, criando tensão com a missão de acessibilidade do SD.

← Todos os termos
ESC