En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Arquitecturas de memoria continua para agentes LLM de largo horizonte

Arquitecturas de memoria continua para agentes LLM de largo horizonte

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La generación de recuperación aumentada (RAG) se ha convertido en la estrategia predeterminada para proporcionar conocimiento contextual a los agentes de modelos de lenguaje grande (LLM). Sin embargo, RAG trata la memoria como una tabla de búsqueda sin estado: la información persiste indefinidamente, la recuperación es de sólo lectura y la continuidad temporal está ausente. Definimos la textit{Arquitectura de memoria continua} (CMA), una clase de sistemas que mantienen y actualizan el estado interno a través de interacciones mediante almacenamiento persistente, retención selectiva, enrutamiento asociativo, encadenamiento temporal y consolidación en abstracciones de orden superior. En lugar de revelar detalles de implementación, especificamos los requisitos arquitectónicos que impone CMA y mostramos ventajas de comportamiento consistentes en tareas que exponen la incapacidad estructural de RAG para acumular, mutar o eliminar ambigüedades de la memoria. Las investigaciones empíricas (actualizaciones de conocimiento, asociación temporal, recuerdo asociativo, desambiguación contextual) demuestran que CMA es una primitiva arquitectónica necesaria para los agentes de largo horizonte, al tiempo que resaltan desafíos abiertos en torno a la latencia, la deriva y la interpretabilidad.

Publicado originalmente en export.arxiv.org el 15 de enero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web