Wired ने 28 अप्रैल को रिपोर्ट किया कि Meta के Dublin-स्थित कॉन्ट्रैक्टर Covalen — जो Meta के लिए AI ट्रेनिंग और कंटेंट मॉडरेशन करता है — के 700 से ज़्यादा कर्मचारियों को बताया गया है कि उनकी नौकरियां ख़तरे में हैं। लगभग 500 डेटा एनोटेटर्स हैं — वे लोग जो Meta के AI मॉडलों द्वारा जनरेट किए गए सामग्री को कंपनी के ख़तरनाक और अवैध कंटेंट के नियमों के विरुद्ध जाँचते हैं। कर्मचारियों को सोमवार को एक संक्षिप्त वीडियो मीटिंग में बताया गया, सवाल पूछने की अनुमति नहीं थी। यह Covalen पर पांच महीनों में दूसरा दौर है; नवंबर की छंटनी (लगभग 400 नौकरियां, जो कर्मचारी हड़ताल में बदलीं) के साथ मिलाकर, Covalen का Dublin headcount लगभग आधा होने के रास्ते पर है। Meta ने पिछले हफ़्ते पूरी कंपनी में 1-में-10 कटौती की घोषणा की, और अलग से बताया कि वह AI ख़र्च लगभग दोगुना करेगी।

जो काम काटा जा रहा है, वह वही है जिसे ज़्यादातर AI लैब्स adversarial annotation और red-teaming कहती हैं। कर्मचारी जटिल प्रॉम्प्ट्स बनाते हैं ताकि मॉडल के guardrails को बायपास किया जा सके — मॉडल को CSAM, आत्महत्या-कंटेंट या अन्य प्रतिबंधित आउटपुट जनरेट करने पर उकसाया जाता है, फिर लॉग किया जाता है कि मॉडल कहां विफल हुआ। एक कर्मचारी ने Wired को बताया: "आप पूरा दिन pedophile होने का अभिनय करते हैं।" दूसरे ने कहा: "यह मूलतः AI को हमारी नौकरी संभालने के लिए ट्रेन करना है। हम ऐसे एक्शन लेते हैं जिन्हें AI नक़ल करने के लिए perfect decision के तौर पर देखे।" यही trade-off है जो Meta कर रही है: इंसान red-teaming की मनोवैज्ञानिक क़ीमत उठाते हैं, उनके निर्णय स्वचालित सुरक्षा classifiers में distill होते हैं, फिर classifiers उन्हें बदल देते हैं। कॉन्ट्रैक्ट में छह महीने का cooldown clause — छंटनी किए गए कर्मचारी प्रतिस्पर्धी Meta vendors में आवेदन नहीं कर सकते — एक श्रम-अधिकार पहलू जोड़ता है जिस पर Communications Workers' Union विवाद कर रहा है।

दो निहितार्थ निकलते हैं। पहला, सुरक्षा का सवाल। अगर Meta अपने adversarial-annotation workforce को काट रही है और साथ ही AI ख़र्च दोगुना कर रही है, तो दांव यह है कि स्वचालित red-teaming और "constitutional AI" तरीक़े अब सबसे कठिन श्रेणियों — CSAM, आत्म-हानि, jailbreaks — पर इंसानों की जगह लेने के लिए पर्याप्त अच्छे हैं। यह दांव उद्योग-भर का है; OpenAI, Anthropic और Google भी स्वचालित और मानव red-teaming के समान मिश्रण इस्तेमाल करते हैं। क्या स्वचालित red-teaming सच में सबसे adversarial मानव प्रॉम्प्ट्स पकड़ता है — यह एक खुला अनुभवजन्य सवाल है, और failure mode असममित है: एक छूटा हुआ CSAM jailbreak केवल एक मेट्रिक नहीं, असली दुनिया का नुक़सान है। दूसरा, श्रम पैटर्न। AI विकास में सबसे बुरा मनोवैज्ञानिक काम करने वाले लोग — पूरा दिन इंटरनेट का सबसे ख़राब कंटेंट देखने वाले — सबसे अस्थिर भी हैं। वे ठेकेदार हैं, कर्मचारी नहीं। वे कम-लागत वाले भौगोलिक क्षेत्रों में बैठे हैं। उनके पास cooldown clauses हैं। AI सुरक्षा एनोटेशन की अर्थव्यवस्था आज एक दशक पहले की सोशल-मीडिया कंटेंट मॉडरेशन की अर्थव्यवस्था जैसी ही दिखती है — और वह कर्मचारियों के लिए भी अच्छी तरह ख़त्म नहीं हुई थी।

Builders के लिए, व्यावहारिक पाठ छोटा है। अगर आप किसी बड़ी लैब के "safety-tier" APIs पर निर्माण कर रहे हैं, तो आपके guardrails तेज़ी से स्वचालित सिस्टमों द्वारा ट्रेन हो रहे हैं और adversarial-annotation लेयर पर मानव-निगरानी सिकुड़ रही है — अपने ख़ुद के application के edge cases verify करें, upstream सुरक्षा classifiers पर भरोसा न करें। अगर आप ऐसे टूल्स बना रहे हैं जिनमें human-in-the-loop labeling शामिल है, यहां की मिसाल यह है कि उन कर्मचारियों के साथ disposable जैसा बर्ताव होता है; Covalen → नवंबर हड़ताल → अप्रैल छंटनी वाला पैटर्न ही चेतावनी है, अपवाद नहीं। और जो लोग ख़ास तौर पर Meta को देख रहे हैं उनके लिए: जिस हफ़्ते Meta ने adversarial annotators काटे, उसी हफ़्ते उसने AI capex लगभग दोगुना करने की घोषणा की। संकेत स्पष्ट है — Meta मानती है कि "AI जो AI को ट्रेन करती है" अब इतनी अच्छी है कि "इंसानों जो AI को ट्रेन करते हैं" को बदला जा सकता है। हम पता उसी तरह लगाएंगे जैसे आम तौर पर लगाते हैं: जब कुछ ग़लत होगा।