उच्च जोखिम AI सिस्टम के लिए EU AI अधिनियम की लॉगिंग आवश्यकताएं एजेंटिक AI के साथ अनुपालन दीवार से टकराती हैं। अनुच्छेद 12 "घटनाओं की स्वचालित रिकॉर्डिंग" की आज्ञा देता है छेड़छाड़-रोधी गारंटी के साथ जो मानक एप्लिकेशन लॉग प्रदान नहीं कर सकते। हालांकि नियमन AI एजेंटों को विशेष रूप से नाम नहीं देता, जो सिस्टम क्रेडिट स्कोर करते हैं, रेज्यूमे फिल्टर करते हैं, या स्वास्थ्य सेवा निर्णय लेते हैं वे परिशिष्ट III उच्च जोखिम वर्गीकरण के अंतर्गत आते हैं। समय सीमा 2 अगस्त 2026 है।
यह एक तकनीकी दुःस्वप्न बनाता है जिसे अधिकांश संगठनों ने अभी तक नहीं समझा है। AI एजेंट केवल API कॉल निष्पादित नहीं करते — वे तर्क करते हैं, प्रत्यायोजित करते हैं, और निर्णय ट्री में टूल इनवोकेशन को चेन करते हैं जिन्हें मानक लॉगिंग आर्किटेक्चर कैप्चर करने के लिए नहीं बनाए गए थे। जैसा कि मैंने अप्रैल में कवर किया, एजेंटिक AI गवर्नेंस ब्लैक होल को उजागर करता है। अनुच्छेद 12 उन छेद्रों को नियामक दायित्व बनाता है। आपको न केवल यह लॉग करना होगा कि एजेंट ने क्या किया, बल्कि यह भी कि उसने वह पथ क्यों चुना, कौन से टूल कॉल किए, और अपने निर्णय पर कैसे पहुंचा।
डेवलपर कवरेज व्यावहारिक अंतराल प्रकट करता है: अधिकांश टीमें सोचती हैं कि अनुपालन का मतलब बेहतर CloudWatch डैशबोर्ड है। गलत। अनुच्छेद 12 क्रिप्टोग्राफिक हस्ताक्षर या blockchain-शैली अपरिवर्तनीयता की आवश्यकता है यह साबित करने के लिए कि लॉग को पूर्वव्यापी रूप से बदला नहीं गया था। नियमन अनुच्छेद 12, 13, 19, और 26 तक फैला है क्रॉस-रेफरेंस के साथ जो कार्यान्वयन को अस्पष्ट बनाते हैं। वित्तीय सेवाएं AI लॉग को मौजूदा नियामक ढांचों में एकीकृत कर सकती हैं, लेकिन बाकी सभी को क्षेत्र-विशिष्ट विस्तार के साथ छह महीने की न्यूनतम रिटेंशन का सामना करना पड़ता है।
यदि आप नियंत्रित उपयोग के मामलों के लिए एजेंट बना रहे हैं, तो अभी लॉगिंग आर्किटेक्चर डिजाइन करना शुरू करें। "हमारे पास observability है" एक अनुपालन रणनीति नहीं है जब नियामक साक्ष्य मांगते हैं कि आपके निर्णय लॉग तथ्य के छह महीने बाद छेड़छाड़ नहीं किए गए।
