En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->¿Quién ve qué? Secuencias estructuradas de acción pensativa para razonamiento epistémico en LLMS

¿Quién ve qué? Secuencias estructuradas de acción pensativa para razonamiento epistémico en LLMS

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los avances recientes en modelos de idiomas grandes (LLM) y los marcos de razonamiento han abierto nuevas posibilidades para mejorar las capacidades de observación de los agentes autónomos. Sin embargo, las tareas que implican percepción activa, razonamiento colaborativo y toma de perspectiva (comprender lo que otro agente puede ver o saber) plantean desafíos persistentes para los sistemas actuales basados ​​en LLM. Este estudio investiga el potencial de los ejemplos estructurados derivados de los gráficos de solución transformadas generadas por el planificador rápido hacia abajo para mejorar el rendimiento de los agentes basados ​​en LLM dentro de un marco React. Proponemos una tubería de procesamiento de solución estructurada que genera tres categorías distintas de ejemplos: rutas de objetivos óptimos (tipo G), rutas de nodos informativas (tipo E) y secuencias de decisión óptimas paso a paso Acciones alternativas de contraste (L-Type). Estas soluciones se convierten aún más en ejemplos de “ acción de pensamiento ” al incitar a un LLM a articular explícitamente el razonamiento detrás de cada decisión. Mientras que los ejemplos de tipo L reducen ligeramente las solicitudes de aclaración y los pasos de acción generales, no producen mejoras consistentes. Los agentes tienen éxito en las tareas que requieren un filtrado atencional básico, pero luchan en escenarios que requerían mentalización sobre espacios ocludados o sopesando los costos de las acciones epistémicas. Estos hallazgos sugieren que los ejemplos estructurados por sí solos son insuficientes para la toma de perspectiva robusta, subrayando la necesidad de un seguimiento de creencias explícito, el modelado de costos y los entornos más ricos para permitir una colaboración socialmente fundamentada en agentes basados ​​en LLM.

Publicado Originalme en export.arxiv.org El 20 de agosto de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web