Resumen: Los modelos de idiomas grandes (LLM) enfrentan un desafío crucial de las ventanas de contexto fijas y la gestión inadecuada de la memoria, lo que lleva a una grave escasez de capacidades de memoria a largo plazo y una personalización limitada en la experiencia interactiva con los agentes de IA. Para superar este desafío, innovadoras innovadoras un sistema operativo de memoria, es decir, MEDEMOS, para lograr una gestión de memoria integral y eficiente para los agentes de IA. Inspirado en los principios de gestión de la memoria en los sistemas operativos, MECMAOS diseña una arquitectura de almacenamiento jerárquico y consta de cuatro módulos clave: almacenamiento de memoria, actualización, recuperación y generación. Específicamente, la arquitectura comprende tres niveles de unidades de almacenamiento: memoria a corto plazo, memoria a mitad de período y memoria personal a largo plazo. Las operaciones clave dentro de MemoryOs incluyen actualizaciones dinámicas entre las unidades de almacenamiento: las actualizaciones a corto plazo a mitad de plazo siguen un principio de FIFO basado en la cadena de diálogo, mientras que las actualizaciones a mitad de período a largo plazo utilizan una estrategia de organización de página segmentada. Nuestro pionero MEDYOS permite la integración de memoria jerárquica y la actualización dinámica. Los experimentos extensos en el punto de referencia Locomo muestran una mejora promedio de 49.11% en F1 y 46.18% en BLUU-1 sobre las líneas de base en GPT-4O-Mini, que muestran coherencia contextual y retención de memoria personalizada en largas conversaciones. El código de implementación es de código abierto en esta URL HTTPS.
Publicado Originalme en rss.arxiv.org El 9 de junio de 2025.
Ver Fuente Original