O Escritório de Política de Ciência e Tecnologia da Casa Branca (OSTP) divulgou na quinta-feira um memorando acusando entidades baseadas na China de conduzirem campanhas em escala industrial para roubar capacidades de modelos de fronteira dos EUA. O diretor Michael Kratsios apontou a destilação como técnica principal, alegando dezenas de milhares de contas proxy e prompts de jailbreak usados para extrair saídas proprietárias de laboratórios americanos. A embaixada chinesa em Washington chamou as acusações de infundadas e calúnia, reiterando seu compromisso com proteção de PI e opondo-se ao que chamou de supressão injustificada de empresas chinesas. O timing importa: o memo chega três semanas antes de uma cúpula Trump-Xi remarcada para 14 de maio.
Destilação não é exótica. Você treina um modelo estudante pequeno em saídas geradas por um modelo professor grande, alinhando logits ou distribuições de resposta. Bem feita, o estudante captura uma fração surpreendente da capacidade do professor com uma fração dos parâmetros. O que torna isso contencioso são os termos de API. OpenAI e Anthropic proíbem usar saídas para treinar modelos concorrentes, e prompts de jailbreak são explicitamente banidos. Duas acusações estão entrelaçadas aqui. Uma é contratual: firmas como DeepSeek, Moonshot AI e MiniMax alegadamente violaram ToS ao treinarem em saídas raspadas. A outra é operacional: milhares de contas proxy e prompts de jailbreak usados para evadir limites de taxa e filtros de segurança.
O que mudou na quinta-feira é que uma disputa de ToS virou um enquadramento de segurança nacional. O memo de Kratsios converte a aplicação contratual, normalmente tratada via banimentos de API, limites de taxa e ações civis, em questão de PI soberana. Isso convida a controles de exportação, adições a listas de entidades e o tipo de escalada bilateral que as restrições de chips já produziram. A vagueza do memo é sua vantagem: escala industrial não nomeia cifra específica nem incidente concreto, mas estabelece a postura diplomática. Anthropic e OpenAI vêm levantando preocupações sobre destilação publicamente há meses; este memo ratifica essas preocupações no nível executivo.
Se você está treinando um modelo usando saídas de um modelo de fronteira via API, sua exposição legal acabou de se multiplicar. O que era uma violação de ToS, ruim mas limitada, agora é enquadrado como roubo de PI relevante para segurança nacional. Isso importa até para builders fora da China. Misturar dados sintéticos de GPT ou Claude no seu pipeline de treinamento trazia risco contratual antes; agora traz risco político, especialmente se você distribui o modelo resultante. O caminho honesto é claro: se você não consegue explicar de onde veio cada sinal de treinamento e qual ToS o governa, você tem um problema de cadeia de suprimentos que não vai ficar quieto.
