Resumen: en agentes basados en modelos de lenguaje grande, la memoria sirve como una capacidad crítica para lograr la personalización almacenando y utilizando la información de los usuarios. Aunque algunos estudios anteriores han adoptado la memoria para implementar la personalización del usuario, generalmente se centran en la alineación de preferencias y la simple respuesta de preguntas. Sin embargo, en el mundo real, las tareas complejas a menudo requieren un razonamiento de múltiples saltos sobre una gran cantidad de información del usuario, lo que plantea desafíos significativos para los enfoques de memoria actuales. Para abordar esta limitación, proponemos la tarea de razonamiento personalizado de múltiples saltos para explorar cómo funcionan los diferentes mecanismos de memoria en el razonamiento de múltiples saltos sobre información personalizada. Definimos explícitamente esta tarea y construimos un conjunto de datos junto con un marco de evaluación unificado. Luego, implementamos varios métodos de memoria explícitos e implícitos y realizamos experimentos integrales. Evaluamos su desempeño en esta tarea desde múltiples perspectivas y analizamos sus fortalezas y debilidades. Además, exploramos enfoques híbridos que combinan ambos paradigmas y proponemos el método HybridMem para abordar sus limitaciones. Demostramos la efectividad de nuestro modelo propuesto a través de extensos experimentos. Para beneficiar a la comunidad de investigación, publicamos este proyecto en esta URL HTTPS.
Publicado Originalme en export.arxiv.org El 19 de agosto de 2025.
Ver Fuente Original