Resumen: Los modelos de visión y lenguaje (VLM) previamente entrenados, como CLIP, han demostrado una notable generalización de disparo cero, lo que permite la implementación en una amplia gama de tareas del mundo real sin capacitación adicional específica para la tarea. Sin embargo, en escenarios de implementación reales con entornos en evolución o clases emergentes, estos modelos inevitablemente enfrentan cambios distributivos y tareas novedosas. En tales contextos, las capacidades estáticas de disparo cero son insuficientes y existe una creciente necesidad de métodos de aprendizaje continuo que permitan que los modelos se adapten con el tiempo y eviten olvidos catastróficos. Presentamos NuSA-CL (Null Space Adaptation for Continual Learning), un marco de aprendizaje continuo liviano y sin memoria diseñado para abordar este desafío. NuSA-CL emplea una adaptación de bajo rango y restringe las actualizaciones de peso específicas de la tarea para que se encuentren dentro de un espacio nulo aproximado de los parámetros actuales del modelo. Esta estrategia minimiza la interferencia con el conocimiento adquirido previamente, preservando efectivamente las capacidades de disparo cero del modelo original. A diferencia de los métodos que dependen de búferes de reproducción o de una destilación costosa, NuSA-CL impone una sobrecarga computacional y de memoria mínima, lo que lo hace práctico para la implementación en entornos de aprendizaje continuo del mundo real y con recursos limitados. Los experimentos muestran que nuestro marco no solo preserva eficazmente las capacidades de transferencia cero, sino que también logra un rendimiento altamente competitivo en puntos de referencia de aprendizaje continuo. Estos resultados posicionan a NuSA-CL como una solución práctica y escalable para VLM de disparo cero en continua evolución en aplicaciones del mundo real.
Publicado originalmente en export.arxiv.org el 26 de octubre de 2025.
Ver fuente original
