Zubnet AIAprenderWiki › Negative Prompt
Using AI

Negative Prompt

Negative Conditioning
Una descripción de texto de lo que NO quieres en una imagen generada, usada junto con el prompt principal. Prompt: «un hermoso paisaje». Negative prompt: «borroso, baja calidad, texto, marca de agua, personas». El modelo se aleja activamente de los conceptos en el negative prompt durante la generación. Los negative prompts se usan principalmente con Stable Diffusion y otros modelos de generación de imágenes abiertos.

Por qué importa

Los negative prompts son una de las herramientas más efectivas para mejorar la calidad de generación de imágenes. Sin ellos, los modelos tienden a producir artefactos (áreas borrosas, dedos de más, marcas de agua de texto) porque aparecen frecuentemente en los datos de entrenamiento. Un negative prompt bien hecho elimina modos de falla comunes y te da más control sobre la salida sin cambiar el prompt positivo.

Deep Dive

Technically, negative prompts work through classifier-free guidance (CFG). During generation, the model computes two predictions: one conditioned on the positive prompt and one conditioned on the negative prompt. The final prediction moves toward the positive conditioning and away from the negative: final = negative + scale × (positive − negative). The guidance scale controls how strongly the model follows the prompts.

Common Negative Prompts

The community has developed standard negative prompts for common issues: "blurry, low quality, jpeg artifacts" (quality), "extra fingers, deformed hands, extra limbs" (anatomy), "text, watermark, signature, logo" (unwanted elements), "ugly, disfigured, bad proportions" (general quality). Many users have a default negative prompt they include with every generation. Custom negative prompts address domain-specific issues.

Not All Models Use Them

Negative prompts work with models that support classifier-free guidance (most Stable Diffusion variants, Flux). DALL-E 3 and Midjourney don't expose negative prompts as a user-facing feature — they handle quality issues through their prompt rewriting and internal quality mechanisms. The trend in newer models is to reduce the need for negative prompts by improving default quality, but they remain valuable for precise control in open models.

Conceptos relacionados

← Todos los términos
ESC