Le bureau de la Maison-Blanche pour la politique scientifique et technologique (OSTP) a publié jeudi un mémo accusant des entités basées en Chine de mener des campagnes à échelle industrielle pour voler les capacités des modèles frontière américains. Le directeur Michael Kratsios a nommé la distillation comme technique principale, alléguant des dizaines de milliers de comptes proxy et des prompts de jailbreak utilisés pour extraire des sorties propriétaires des laboratoires américains. L'ambassade chinoise à Washington a qualifié les allégations de sans fondement et de calomnie, réitérant son engagement envers la protection de la PI et s'opposant à ce qu'elle appelle la suppression injustifiée des entreprises chinoises. Le timing compte: le mémo tombe trois semaines avant un sommet Trump-Xi reporté au 14 mai.

La distillation n'a rien d'exotique. On entraîne un petit modèle étudiant sur les sorties générées par un grand modèle enseignant, en alignant les logits ou les distributions de réponses. Bien faite, l'étudiant capture une fraction surprenante de la capacité de l'enseignant avec une fraction des paramètres. Ce qui rend ça contentieux, ce sont les conditions d'API. OpenAI et Anthropic interdisent tous deux l'utilisation des sorties pour entraîner des modèles concurrents, et les prompts de jailbreak sont explicitement bannis. Deux allégations sont emmêlées ici. La première est contractuelle: des firmes comme DeepSeek, Moonshot AI et MiniMax auraient violé les CGU en s'entraînant sur des sorties scrappées. La seconde est opérationnelle: des milliers de comptes proxy et de prompts de jailbreak utilisés pour contourner les limites de taux et les filtres de sécurité.

Ce qui a changé jeudi, c'est qu'un litige de CGU est devenu un cadrage de sécurité nationale. Le mémo de Kratsios convertit l'application contractuelle, normalement gérée par des bannissements d'API, des limites de taux et des poursuites civiles, en question de PI souveraine. Ça invite les contrôles à l'exportation, les ajouts aux listes d'entités, et le genre d'escalade bilatérale que les restrictions sur les puces ont déjà produite. Le flou du mémo est sa force: échelle industrielle ne nomme aucun chiffre précis ni aucun incident spécifique, mais établit la posture diplomatique. Anthropic et OpenAI soulèvent publiquement des préoccupations sur la distillation depuis des mois; ce mémo ratifie ces préoccupations au niveau exécutif.

Si tu entraînes un modèle en utilisant les sorties d'un modèle frontière via API, ton exposition légale vient de se multiplier. Ce qui était une violation de CGU, mauvais mais borné, est maintenant cadré comme vol de PI liée à la sécurité nationale. Ça compte même pour les builders hors de Chine. Mélanger des données synthétiques de GPT ou Claude dans ton pipeline d'entraînement comportait un risque contractuel avant; maintenant ça comporte un risque politique, surtout si tu distribues le modèle résultant. Le chemin honnête est clair: si tu ne peux pas expliquer d'où vient chaque signal d'entraînement et quelles CGU le gouvernent, tu as un problème de chaîne d'approvisionnement qui ne restera pas tranquille.