La Oficina de Política Científica y Tecnológica de la Casa Blanca (OSTP) publicó el jueves un memorando acusando a entidades basadas en China de ejecutar campañas a escala industrial para robar las capacidades de los modelos frontera de EE.UU. El director Michael Kratsios nombró la destilación como técnica principal, alegando decenas de miles de cuentas proxy y prompts de jailbreak usados para extraer salidas propietarias de laboratorios estadounidenses. La embajada china en Washington calificó las acusaciones de infundadas y calumnia, reiterando su compromiso con la protección de PI y oponiéndose a lo que llama supresión injustificada de empresas chinas. El momento importa: el memo llega tres semanas antes de una cumbre Trump-Xi reprogramada para el 14 de mayo.
La destilación no es exótica. Entrenas un modelo estudiante pequeño con las salidas generadas por un modelo maestro grande, alineando logits o distribuciones de respuesta. Bien hecha, el estudiante captura una fracción sorprendente de la capacidad del maestro con una fracción de los parámetros. Lo que lo hace contencioso son los términos de API. OpenAI y Anthropic prohíben usar salidas para entrenar modelos competidores, y los prompts de jailbreak están explícitamente prohibidos. Dos acusaciones se entrelazan aquí. Una es contractual: firmas como DeepSeek, Moonshot AI y MiniMax presuntamente violaron los ToS entrenando con salidas scrapeadas. La otra es operacional: miles de cuentas proxy y prompts de jailbreak usados para evadir límites de tasa y filtros de seguridad.
Lo que cambió el jueves es que una disputa de ToS se convirtió en un encuadre de seguridad nacional. El memo de Kratsios convierte la aplicación contractual, normalmente manejada mediante baneos de API, límites de tasa y demandas civiles, en una cuestión de PI soberana. Eso invita a controles de exportación, adiciones a listas de entidades y el tipo de escalada bilateral que las restricciones de chips ya produjeron. La vaguedad del memo es su ventaja: escala industrial no nombra ninguna cifra específica ni incidente concreto, pero establece la postura diplomática. Anthropic y OpenAI han planteado preocupaciones sobre destilación públicamente durante meses; este memo ratifica esas preocupaciones a nivel ejecutivo.
Si estás entrenando un modelo usando salidas de un modelo frontera vía API, tu exposición legal acaba de multiplicarse. Lo que era una violación de ToS, mala pero acotada, ahora se enmarca como robo de PI relevante para seguridad nacional. Eso importa incluso para builders fuera de China. Mezclar datos sintéticos de GPT o Claude en tu pipeline de entrenamiento conllevaba riesgo contractual antes; ahora conlleva riesgo político, especialmente si distribuyes el modelo resultante. El camino honesto es claro: si no puedes explicar de dónde vino cada señal de entrenamiento y qué ToS la gobierna, tienes un problema de cadena de suministro que no se quedará callado.
