En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->AMA: memoria adaptativa mediante colaboración multiagente

AMA: memoria adaptativa mediante colaboración multiagente

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La rápida evolución de los agentes del modelo de lenguaje grande (LLM) ha requerido sistemas de memoria robustos para respaldar una interacción cohesiva a largo plazo y un razonamiento complejo. Aprovechando las sólidas capacidades de los LLM, el enfoque de la investigación reciente ha pasado de la simple extensión del contexto al desarrollo de sistemas de memoria agentes dedicados. Sin embargo, los enfoques existentes generalmente se basan en una granularidad de recuperación rígida, estrategias de mantenimiento con mucha acumulación y mecanismos de actualización generales. Estas elecciones de diseño crean una falta de coincidencia persistente entre la información almacenada y las demandas de razonamiento específicas de la tarea, al tiempo que conducen a una acumulación descontrolada de inconsistencias lógicas a lo largo del tiempo. Para abordar estos desafíos, proponemos Memoria Adaptativa a través de Colaboración Multi-Agente (AMA), un marco novedoso que aprovecha agentes coordinados para administrar la memoria en múltiples granularidades. AMA emplea un diseño de memoria jerárquico que alinea dinámicamente la granularidad de la recuperación con la complejidad de la tarea. Específicamente, Constructor y Retriever permiten conjuntamente la construcción de memoria de granularidad múltiple y el enrutamiento de consultas adaptativo. El juez verifica la relevancia y coherencia del contenido recuperado, activando la recuperación iterativa cuando la evidencia es insuficiente o invocando el Refresher al detectar conflictos lógicos. Luego, el Refresher aplica la coherencia de la memoria realizando actualizaciones específicas o eliminando entradas obsoletas. Amplios experimentos sobre desafiantes puntos de referencia de contexto largo muestran que AMA supera significativamente las líneas de base de última generación al tiempo que reduce el consumo de tokens en aproximadamente un 80 % en comparación con los métodos de contexto completo, lo que demuestra su eficacia para mantener la precisión de la recuperación y la coherencia de la memoria a largo plazo.

Publicado originalmente en export.arxiv.org el 28 de enero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web