Resumen: Los grandes agentes basados en modelos de lenguaje han surgido recientemente como enfoques poderosos para resolver tareas dinámicas y de múltiples pasos. La mayoría de los agentes existentes emplean mecanismos de planificación para guiar acciones a largo plazo en entornos dinámicos. Sin embargo, los enfoques de planificación actuales enfrentan una limitación fundamental: operan a un nivel de granularidad fijo. Específicamente, proporcionan detalles excesivos para tareas simples o detalles insuficientes para las complejas, sin lograr un equilibrio óptimo entre simplicidad y complejidad. Inspirándonos en el principio de textit{refinamiento progresivo} en la ciencia cognitiva, proponemos textbf{AdaPlan-H}, un mecanismo de planificación jerárquica autoadaptativo que imita las estrategias de planificación humana. Nuestro método comienza con un plan macro de grano grueso y lo refina progresivamente en función de la complejidad de la tarea. Genera planes jerárquicos autoadaptativos adaptados a los distintos niveles de dificultad de diferentes tareas, que pueden optimizarse mediante el aprendizaje por imitación y la mejora de capacidades. Los resultados experimentales demuestran que nuestro método mejora significativamente las tasas de éxito en la ejecución de tareas al tiempo que mitiga la planificación excesiva en el nivel de planificación, proporcionando una solución flexible y eficiente para tareas complejas de toma de decisiones de varios pasos. Para contribuir a la comunidad, nuestro código y nuestros datos estarán disponibles públicamente en esta URL https.
Publicado originalmente en export.arxiv.org el 27 de abril de 2026.
Ver fuente original
