मूल neural style transfer (Gatys et al., 2015) एक छवि को optimize करके काम करता है ताकि वह एक साथ एक छवि की content features और दूसरी की style features (texture, रंग पैटर्न) से मेल खाए। Content गहरी परत activations द्वारा कैप्चर होती है (जो वस्तुओं और संरचना का प्रतिनिधित्व करती हैं)। Style शुरुआती/मध्य परत activations के Gram matrices द्वारा कैप्चर होती है (जो textures और patterns का spatial arrangement से स्वतंत्र प्रतिनिधित्व करती हैं)।
मूल विधि धीमी है (प्रति छवि मिनट, pixels को iteratively optimize करना)। Fast style transfer एक feedforward नेटवर्क को एक विशिष्ट शैली को एक ही forward pass में लागू करने के लिए प्रशिक्षित करता है (मिलीसेकंड)। ट्रेड-ऑफ: प्रत्येक नेटवर्क केवल एक शैली करता है। AdaIN (Adaptive Instance Normalization) ने किसी भी reference style से मिलान करने के लिए normalization statistics को समायोजित करके इसे हल किया, जिससे real-time में किसी भी शैली का transfer संभव हो गया।
आज, style transfer काफ़ी हद तक image generation मॉडलों द्वारा समाहित हो गया है। Style references के साथ ControlNet, style conditioning के लिए IP-Adapter, और सीधा prompting ("watercolor painting की शैली में") समर्पित style transfer नेटवर्क की तुलना में अधिक लचीला और उच्च-गुणवत्ता वाला style transfer प्राप्त करते हैं। लेकिन मूल अंतर्दृष्टि — कि neural networks विभिन्न परतों पर content को style से अलग करते हैं — दृश्य प्रतिनिधित्व को समझने के लिए मूलभूत बनी हुई है।