La version propre de l'automatisation par agent devait venir du SaaS entreprise : le CRM reçoit un copilote IA, l'IDE reçoit un programmeur IA en binôme, personne n'a besoin de trop réfléchir à ce qui est modélisé. La version plus désordonnée est déjà en production dans les entreprises tech chinoises, et elle roule sur GitHub. MIT Technology Review a publié cette semaine un papier sur Colleague Skill, un outil de Tianwing Zhou du Shanghai AI Lab qui fait exactement ce que son nom suggère. Donne-lui le nom d'un collègue, il scrape tes apps de chat au travail, pis te renvoie un manuel de workflow qu'un agent peut rejouer.
Les mécanismes sont directs. Colleague Skill tire les historiques de chat et les fichiers de Lark et DingTalk (les équivalents entreprise chinois de Slack et Teams), fait passer les données dans un pipeline de distillation, et produit un document décrivant les tâches du poste plus les « particularités uniques » à répliquer. L'article de MITTR ne précise pas quels modèles alimentent l'étape de distillation, et Zhou n'a pas publié de détails d'architecture. Ce qui est documenté, c'est le substrat de données : logs de chat au travail, métadonnées de fichiers, et assez de signal comportemental pour encoder la personnalité. Séparément, un autre ingénieur, Koki Xu, a publié un outil anti-distillation le 4 avril avec des modes de sabotage léger, moyen et lourd qui réécrivent les documents de workflow en entrée en « langage générique, non actionnable » avant leur absorption. La vidéo de démo de l'outil de sabotage a cumulé plus de cinq millions de likes.
C'est la vraie forme du déploiement d'agent, pas la version pitch-deck. La surface de déploiement n'est pas une API propre ou une feature entreprise bien fignolée ; c'est n'importe quelle donnée que ton employeur peut atteindre, spécifiquement les historiques de chat et les fichiers partagés où la majorité du travail de connaissance se passe réellement. La contre-mesure n'est pas une politique, c'est de l'ingénierie. L'outil de Xu est essentiellement de la mise en forme adversariale de données, exécutée par les travailleurs dont la production est le signal d'entraînement. Si tu construis des outils d'agent, c'est un signal qui mérite attention : les gens dont tu veux capturer la connaissance ont une culture d'expédition, pis ils traitent déjà les pipelines de distillation comme des entrées hostiles à perturber.
Deux choses à mâcher. Un, le scrape des apps de chat est le vrai substrat d'entraînement — Lark, DingTalk, Slack, Teams, Notion sont où le signal vit, et les outils d'agent qui dépendent de SOPs écrites à la main propres passent à côté de la vraie distribution des données. Deux, le mode sabotage va se généraliser. Une fois qu'un pattern léger/moyen/lourd pour la réécriture adversariale de workflow prend, tu le verras déployé contre chaque outil « ton collègue IA » dont l'entrée est du contenu de travail utilisateur. Si ton pipeline d'agent traite l'entrée de distillation comme fiable, prévois qu'elle ne le soit pas.
