IE pipeline में पारंपरिक रूप से तीन चरण होते हैं: entity extraction (सभी व्यक्तियों, संगठनों, तिथियों, राशियों का उल्लेख खोजें), relation extraction (संबंध निर्धारित करें: "कंपनी X ने कंपनी Y को $Z में अधिग्रहण किया"), और coreference resolution (पहचानें कि "कंपनी," "Apple," और "यह" सभी एक ही entity को संदर्भित करते हैं)। प्रत्येक चरण पिछले चरण पर आधारित होकर संरचित, जुड़ी हुई जानकारी उत्पन्न करता है।
LLMs ने IE pipeline को एक ही prompt में समेट दिया: "इस टेक्स्ट से सभी कंपनियों, व्यक्तियों, राशियों और तिथियों को निकालें। प्रत्येक के लिए, उनके संबंधों की पहचान करें। JSON के रूप में लौटाएँ।" यह सामान्य extraction कार्यों के लिए उल्लेखनीय रूप से अच्छा काम करता है और प्रत्येक उप-कार्य के लिए अलग मॉडलों की आवश्यकता को समाप्त करता है। ट्रेड-ऑफ: LLM extraction समर्पित मॉडलों की तुलना में धीमा और अधिक महँगा है, और आउटपुट format में कम अनुमानित है (structured output modes मदद करते हैं)।
आधुनिक IE टेक्स्ट से आगे जाता है: document understanding मॉडल (LayoutLM, Donut) दृश्य रूप से समृद्ध दस्तावेज़ों (invoices, receipts, forms) से टेक्स्ट सामग्री और spatial layout दोनों को समझकर जानकारी निकालते हैं। एक invoice के निचले-दाएँ में "Total: $42.50" एक body paragraph में उसी टेक्स्ट से अलग अर्थ रखता है। ये मॉडल वास्तविक-दुनिया के दस्तावेज़ों से संरचित डेटा निकालने के लिए OCR, layout विश्लेषण, और NLP को जोड़ते हैं।