Agent automation का साफ-सुथरा version enterprise SaaS से आना था: CRM को AI copilot मिलता है, IDE को AI pair programmer मिलता है, किसी को यह सोचने की जरूरत नहीं कि क्या model किया जा रहा है। ज्यादा अस्त-व्यस्त version चीनी tech कंपनियों के भीतर पहले से ही production में है, और वह GitHub पर चलता है। MIT Technology Review ने इस हफ्ते Colleague Skill पर एक लेख प्रकाशित किया, जो Shanghai AI Lab के Tianwing Zhou का एक tool है जो बिल्कुल वही करता है जो इसके नाम से पता चलता है। इसे एक सहकर्मी का नाम दो, यह तुम्हारे workplace chat apps को scrape करता है, और तुम्हें एक workflow manual वापस देता है जिसे agent replay कर सकता है।

यांत्रिकी सीधी है। Colleague Skill Lark और DingTalk (Slack और Teams के चीनी enterprise समकक्ष) से chat histories और files खींचता है, data को एक distillation pipeline से गुजारता है, और नौकरी के कर्तव्यों का वर्णन करने वाला दस्तावेज़ तथा दोहराने के लिए "unique quirks" जारी करता है। MITTR का लेख यह नहीं बताता कि distillation step किस model से चलता है, और Zhou ने architecture विवरण प्रकाशित नहीं किए हैं। जो documented है वह data substrate है: workplace chat logs, file metadata, और व्यक्तित्व को encode करने के लिए पर्याप्त व्यवहार संकेत। अलग से, एक अन्य engineer, Koki Xu, ने 4 अप्रैल को light, medium, और heavy sabotage modes वाला anti-distillation tool लॉन्च किया जो input workflow दस्तावेजों को अवशोषित होने से पहले "generic, non-actionable language" में फिर से लिखता है। Sabotage tool के demo video ने पचास लाख से अधिक likes बटोरे।

यह agent deployment का असली रूप है, pitch-deck version नहीं। Deployment surface एक साफ API या पॉलिश किया हुआ enterprise feature नहीं है; यह कोई भी data है जिस तक तुम्हारे employer पहुंच सकते हैं, विशेष रूप से chat histories और साझा की गई files जहां अधिकांश ज्ञान-कार्य वास्तव में होता है। Counter-move नीति नहीं है, engineering है। Xu का tool मूल रूप से adversarial data shaping है, उन workers द्वारा execute किया गया जिनका output training signal है। अगर तुम agent tools बनाते हो, यह ध्यान देने योग्य संकेत है: जिन लोगों के ज्ञान को तुम capture करना चाहते हो उनकी shipping संस्कृति है, और वे पहले से distillation pipelines को परेशान करने लायक hostile input मान रहे हैं।

चबाने के लिए दो बातें। एक, chat app scrape असली training substrate है — Lark, DingTalk, Slack, Teams, Notion वे जगहें हैं जहां signal रहता है, और जो agent tooling साफ हाथ से लिखे SOPs पर निर्भर करती है वह असली data distribution से चूक रही है। दो, sabotage mode generalize होने वाला है। एक बार light/medium/heavy pattern के workflow rewrites चल पड़ते हैं, तुम इसे हर "तुम्हारा AI सहकर्मी" tool के खिलाफ deploy होते देखोगे जिसका input user-facing workplace content है। अगर तुम्हारा agent pipeline distillation input को trustworthy मानता है, planning करो कि input trustworthy नहीं है।