A versão limpa da automação por agente deveria vir do SaaS empresarial: o CRM ganha um copiloto de IA, o IDE ganha um programador par de IA, ninguém precisa pensar muito no que está sendo modelado. A versão mais bagunçada já está em produção dentro de empresas chinesas de tecnologia, e roda no GitHub. O MIT Technology Review publicou esta semana uma matéria sobre Colleague Skill, uma ferramenta de Tianwing Zhou do Shanghai AI Lab que faz exatamente o que seu nome sugere. Dê a ela o nome de um colega, ela raspa seus apps de chat do trabalho, e devolve um manual de fluxo de trabalho que um agente pode reproduzir.

A mecânica é direta. Colleague Skill puxa históricos de chat e arquivos do Lark e DingTalk (os equivalentes empresariais chineses do Slack e Teams), passa os dados por um pipeline de destilação, e emite um documento descrevendo deveres do cargo mais as "peculiaridades únicas" a replicar. A matéria do MITTR não especifica quais modelos alimentam o passo de destilação, e Zhou não publicou detalhes de arquitetura. O que está documentado é o substrato de dados: logs de chat do trabalho, metadados de arquivos, e sinal comportamental suficiente para codificar personalidade. Separadamente, outro engenheiro, Koki Xu, lançou uma ferramenta anti-destilação em 4 de abril com modos de sabotagem leve, médio e pesado que reescrevem os documentos de fluxo de trabalho de entrada em "linguagem genérica, não acionável" antes de serem absorvidos. O vídeo de demo da ferramenta de sabotagem acumulou mais de cinco milhões de curtidas.

Esta é a forma real do deployment de agentes, não a versão do pitch-deck. A superfície de deployment não é uma API limpa ou uma feature empresarial polida; é qualquer dado que seu empregador consegue alcançar, especificamente os históricos de chat e arquivos compartilhados onde a maior parte do trabalho de conhecimento realmente acontece. O contra-movimento não é política, é engenharia. A ferramenta de Xu é essencialmente moldagem adversarial de dados, executada pelos trabalhadores cuja produção é o sinal de treinamento. Se você constrói ferramentas de agente, este é um sinal que merece atenção: as pessoas cujo conhecimento você quer capturar têm cultura de shipping, e já estão tratando pipelines de destilação como entrada hostil a ser perturbada.

Duas coisas para mastigar. Um, o scrape de app de chat é o substrato de treinamento real — Lark, DingTalk, Slack, Teams, Notion são onde o sinal vive, e ferramentas de agente que dependem de SOPs limpos escritos à mão estão perdendo a distribuição real dos dados. Dois, o modo sabotagem vai se generalizar. Uma vez que um padrão leve/médio/pesado para reescritas adversariais de fluxo de trabalho pegue, você vai ver ele deployado contra toda ferramenta "seu colega IA" cuja entrada seja conteúdo de trabalho voltado ao usuário. Se seu pipeline de agente trata a entrada de destilação como confiável, planeje que ela não seja.