Resumen: los modelos de idiomas grandes (LLM) demuestran capacidades generales impresionantes, pero a menudo luchan con el razonamiento paso a paso, especialmente en aplicaciones complejas como los juegos. Mientras que los métodos acuáticos de recuperación como Graphrag intentan cerrar esta brecha a través de la extracción e indexación del documento cruzado, sus gráficos de relación de entidad fragmentados y la conectividad local demasiado densa obstaculizan la construcción de razonamiento coherente. En este artículo, proponemos un marco novedoso basado en gráficos orientados a objetivos (GOG), donde cada nodo representa un objetivo y sus atributos asociados, y los bordes codifican dependencias lógicas entre los objetivos. Esta estructura permite la recuperación explícita de las rutas de razonamiento al identificar primero los objetivos de alto nivel y recuperar recursivamente sus subggoals, formando cadenas de razonamiento coherentes para guiar la solicitud de LLM. Nuestro método mejora significativamente la capacidad de razonamiento de los LLM en las tareas de juego, como lo demuestran los amplios experimentos en el Minecraft Testbed, superan a Graphrag y otras líneas de base.
Publicado Originalme en rss.arxiv.org El 26 de mayo de 2025.
Ver Fuente Original