Reuters a sorti un exclusif cette semaine : Meta déploie le Model Capability Initiative (MCI) aux employés US. L'outil capture mouvements de souris, clics, frappes clavier pis captures d'écran périodiques sur les apps pis sites web liés au travail. La divulgation a atterri dans un mémo à un canal d'équipe Meta Superintelligence Labs. Cadrage de Meta : aider leurs modèles à apprendre les comportements d'utilisation d'ordinateur de base, de la navigation dans les menus déroulants à l'utilisation des raccourcis clavier, pour que les agents futurs puissent exécuter des tâches cols blancs de façon autonome.

Le pattern fait écho à quelque chose déjà couvert dans nos pages. Plus tôt cette semaine, MIT Technology Review rapportait sur Colleague Skill, un outil GitHub par un ingénieur du Shanghai AI Lab qui scrape les historiques de chat Lark pis DingTalk pour distiller les collègues en manuels de workflow rejouables par agent. Cette histoire était bottom-up, avec des ingénieurs individuels distillant leurs pairs, plus un outil de backlash (anti-distillation) d'un autre ingénieur qui réécrit les documents de workflow en langage générique non actionnable avant leur absorption. MCI est la version corporative top-down du même problème de capture de données. Même substrat (activité d'ordinateur au travail), gouvernance différente (officiellement sanctionnée, centralement administrée). Le porte-parole de Meta Stone a dit à Reuters que les données de MCI ne seraient pas utilisées pour les évaluations de performance pis ne seraient pas utilisées pour aucune autre fin que l'entraînement de modèle.

Deux choses valent la peine d'être enregistrées. Un, le signal de rareté des données d'entraînement. Meta concurrencant OpenAI pis Anthropic sur l'expédition de produits d'agent autonomes veut dire concurrencer sur les données d'entraînement d'utilisation d'ordinateur interactif, pis ces données ne sont pas sur l'internet public. La réponse honnête pour comment les obtenir est « nos employés, en train de faire leur travail, instrumentés ». Chaque labo frontière fait une version de ça ; la version de Meta est juste inhabituellement explicite, avec un nom d'outil divulgué pis un mémo. Deux, le compromis vie-privée-contre-capacité fait ici n'est pas nouveau, mais l'échelle l'est. L'instrumentation style MCI à l'échelle des effectifs Meta produit un set d'entraînement que les compétiteurs sans les effectifs ou la posture légale interne pour faire la même chose vont avoir du mal à matcher. Si les garanties citées par Stone tiennent (pas d'évaluation de performance, pas d'autre fin, garanties de contenu d'écran pour le matériel sensible) est la partie qui se teste en pratique, pas dans les mémos.

Deux observations si tu roules une organisation AI-forward. Un, le pattern MCI va mettre de la pression sur chaque labo qui l'a pas. Si tu travailles chez ou concurrences une compagnie construisant des produits d'agent, attends-toi à ce que la conversation « devrait-on instrumenter nos propres employés » soit à l'agenda dans deux quarts si elle l'est pas déjà. Deux, la réponse côté employé compte. L'outil anti-distillation de Koki Xu dans l'histoire Colleague Skill a démontré que les travailleurs traitent ces pipelines de capture comme des entrées adversariales dès qu'ils sont implémentés. Si tu expédies de l'outillage style MCI en interne, planifie pour que ta propre main-d'œuvre construise des contre-mesures. Le pattern de capture est réel, le pattern de résistance est réel, pis ils vont co-évoluer.