Resumen:En este artículo, presentamos textbf{desaprendizaje agente} que elimina información específica tanto de los parámetros del modelo como de la memoria persistente en agentes con interacción de bucle cerrado. Los métodos de desaprendizaje existentes apuntan únicamente a los parámetros, dejando dos brechas críticas: (i) el reflujo de la memoria de parámetros, donde la recuperación reactiva restos paramétricos o artefactos de memoria reintroducen contenido sensible, y (ii) la ausencia de una estrategia unificada que cubra tanto los parámetros como las rutas de la memoria. Presentamos el desaprendizaje sincronizado de reflujo (SBU), un marco que desaprende conjuntamente a través de parámetros y vías de memoria. La ruta de la memoria realiza un desaprendizaje basado en el cierre de dependencias que elimina entidades aisladas al tiempo que invalida lógicamente los artefactos compartidos. La ruta del parámetro emplea una alineación de referencia estocástica para guiar los resultados del modelo hacia un previo de alta entropía. Estas vías se integran a través de un protocolo de actualización dual sincronizado, formando un mecanismo de circuito cerrado donde el desaprendizaje de la memoria y la supresión paramétrica se refuerzan entre sí para evitar la recontaminación entre vías. Los experimentos sobre puntos de referencia de control de calidad médico muestran que la SBU reduce los rastros de información privada específica en ambas vías con una degradación limitada de los datos retenidos.
Publicado originalmente en export.arxiv.org el 22 de febrero de 2026.
Ver fuente original
