Kirchenbauer et al. (2023): el enfoque de lista verde/roja. Antes de generar cada token, el tokenizer divide el vocabulario en tokens "verdes" (favorecidos) y "rojos" (penalizados) basándose en una función del token anterior. El texto resultante tiene una proporción estadísticamente anómala de tokens verdes, detectable pero invisible al lector humano.
La marca de agua de texto es frágil: parafrasear, traducir o reescribir destruye la señal. Esto limita su utilidad en escenarios adversariales donde alguien quiere ocultar que usó IA. Las marcas de agua en imágenes son más robustas (sobreviven recorte, compresión, ajustes de color) pero no son infalibles.
La Ley de IA de la UE exige etiquetado de contenido generado por IA. Google SynthID y la investigación de Meta son implementaciones en producción. El desafío es equilibrar detectabilidad (para cumplir regulaciones) con calidad (la marca de agua no debe degradar la salida). Las implementaciones actuales logran esto razonablemente bien para texto e imágenes, pero los estándares aún están madurando.