En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->La experiencia contextual de la experiencia para la superación personal de los agentes del lenguaje

La experiencia contextual de la experiencia para la superación personal de los agentes del lenguaje

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los agentes del Modelo de Lenguaje Gran (LLM) se han aplicado a tareas secuenciales de toma de decisiones, como la navegación web, pero sin ninguna experiencia específica del entorno, a menudo fallan en estas tareas complejas. Además, los agentes actuales de LLM no están diseñados para aprender continuamente de experiencias pasadas durante el tiempo de inferencia, lo que podría ser crucial para ellos para obtener estas experiencias específicas del entorno. Para abordar esto, proponemos la repetición de experiencia contextual (CER), un marco sin capacitación para permitir una superación personal eficiente para los agentes del lenguaje en su ventana de contexto. Específicamente, CER acumula y sintetiza experiencias pasadas en un búfer de memoria dinámica. Estas experiencias abarcan la dinámica del entorno y los patrones de toma de decisiones comunes, lo que permite a los agentes recuperarse y aumentarse con el conocimiento relevante en nuevas tareas, mejorando su adaptabilidad en entornos complejos. Evaluamos CER en los desafiantes puntos de referencia Webarena y Visualwebarena. En VisualWebarena, CER logra un rendimiento competitivo del 31.9%. En Webarena, CER también obtiene una tasa de éxito promedio competitiva del 36.7%, lo que mejora relativamente la tasa de éxito de la línea de base del agente GPT-4O en un 51.0%. También realizamos un análisis exhaustivo al respecto para demostrar su eficiencia, validez y entenderlo mejor.

Publicado Originalme en rss.arxiv.org El 9 de junio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web