Resumen: Los grandes modelos de lenguaje ahora redactan noticias, análisis legales y códigos de software con fluidez a nivel humano. Al mismo tiempo, regulaciones como la Ley de IA de la UE exigen que cada pasaje sintético lleve una marca de procedencia imperceptible y verificable por máquina. Las marcas de agua convencionales basadas en logit satisfacen este requisito al seleccionar un vocabulario verde pseudoaleatorio en cada paso de decodificación y aumentar sus logits; sin embargo, la división aleatoria puede excluir el token de mayor probabilidad y, por lo tanto, erosionar la fluidez. WaterMod mitiga esta limitación mediante una regla modular que tiene en cuenta la probabilidad. El vocabulario se ordena primero según la probabilidad del modelo descendente; los rangos resultantes luego se dividen por el rango residual mod k, que distribuye tokens adyacentes (y por lo tanto semánticamente similares) entre diferentes clases. Se aplica un sesgo fijo de pequeña magnitud a una clase seleccionada. En la configuración de bit cero (k = 2), una puerta adaptativa de entropía selecciona la paridad par o impar como lista verde. Debido a que los dos rangos superiores caen en paridades diferentes, esta elección incorpora una señal detectable al tiempo que garantiza que al menos un token de alta probabilidad permanezca disponible para el muestreo. En el régimen multibit (k>2), el dígito de carga útil actual d selecciona la clase de color cuyos rangos satisfacen el rango mod k = d. Al sesgar los logits de esa clase se incorpora exactamente un dígito de base k por paso de decodificación, lo que permite un seguimiento de procedencia detallado. Por lo tanto, la misma aritmética modular admite tanto la atribución binaria como las cargas útiles enriquecidas. Los resultados experimentales demuestran que WaterMod logra consistentemente un sólido rendimiento de detección de marcas de agua mientras mantiene la calidad de generación tanto en configuraciones de bits cero como de bits múltiples. Esta solidez se mantiene en una variedad de tareas, incluida la generación de lenguaje natural, el razonamiento matemático y la síntesis de código. Nuestro código y datos están disponibles en esta URL https.
Publicado originalmente en export.arxiv.org el 11 de noviembre de 2025.
Ver fuente original
