Resumen:Si bien los modelos de lenguajes grandes (LLM) tienen un razonamiento complejo avanzado, métodos destacados como el marco del Árbol de pensamientos (ToT) enfrentan un equilibrio crítico entre la profundidad de la exploración y la eficiencia computacional. Las implementaciones de ToT existentes a menudo se basan en una pesada autoevaluación basada en LLM o en heurísticas rígidas para la poda de ramas, lo que las hace prohibitivamente costosas e inflexibles para una aplicación amplia. Para abordar esto, presentamos DST, un predictor adaptable plug-and-play que sirve como una heurística ligera y supervisada para guiar el proceso de búsqueda de ToT. Nuestro predictor permite una poda dinámica y consciente del contexto, lo que permite que la búsqueda avance con una eficiencia casi codiciosa en pasos de razonamiento más simples mientras expande de forma adaptativa el haz de búsqueda solo cuando se encuentra incertidumbre o complejidad de la tarea. Evaluamos nuestro enfoque en un conjunto diverso de puntos de referencia que abarcan el razonamiento matemático, el razonamiento general y el razonamiento lógico complejo. Los resultados experimentales demuestran que nuestro método logra una precisión competitiva o superior a las líneas de base sólidas, incluido el ToT estándar, al tiempo que reduce la sobrecarga computacional entre un 26% y un 75%. Nuestro trabajo resuelve eficazmente el equilibrio entre precisión y eficiencia en el razonamiento basado en árboles, transformando la ToT de una técnica que requiere muchos recursos a un paradigma escalable y práctico para la resolución de problemas complejos en LLM.
Publicado originalmente en export.arxiv.org el 23 de marzo de 2026.
Ver fuente original
