En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->MEMORIA GROUDE-FINE PARA PLANIFICACIÓN DEL AGENTE LLM

MEMORIA GROUDE-FINE PARA PLANIFICACIÓN DEL AGENTE LLM

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los avances recientes en modelos de idiomas grandes (LLM) han impulsado el creciente interés en agentes basados ​​en LLM para tareas de planificación compleja. Para evitar una capacitación costosa de agentes, muchos estudios adoptaron un mecanismo de memoria que mejora LLM con experiencias fuera de línea o análisis de trayectoria en línea. Sin embargo, los trabajos existentes se centran en la memoria de granularidad única derivada de las interacciones ambientales dinámicas, que están inherentemente limitadas por la calidad de las experiencias recolectadas. Esta limitación, a su vez, limita la diversidad del conocimiento y la flexibilidad de la planificación. Proponemos la memoria fundamentada ( ours {}), un marco novedoso que basa recuerdos gruesos con LLM, lo aprovecha por completo para una adaptación flexible a diversos escenarios. Ours {} motiva la información ambiental en puntos de enfoque de grano grueso para guiar la recopilación de experiencia en las tareas de capacitación, seguido de la base de consejos de grano híbrido procesable de cada experiencia. En inferencia, ours {} recupera experiencias y consejos relevantes para tareas para apoyar la planificación. Cuando se enfrenta a las anomalías ambientales, el LLM basa la situación actual en información clave de grano fino, lo que permite la reflexión flexible y la corrección del plan.

Publicado Originalme en export.arxiv.org El 21 de agosto de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web