Resumen: Los avances recientes en modelos de lenguaje grande (LLM) han convertido el razonamiento en un punto de referencia central para evaluar la inteligencia. Si bien estudios anteriores se centran en la eficiencia al examinar cómo acortar las cadenas de razonamiento o reducir la computación, este punto de vista pasa por alto un desafío fundamental: los LLM actuales aplican estrategias de razonamiento uniformes independientemente de la complejidad de la tarea, generando largos rastros para problemas triviales y no logran extender el razonamiento para tareas difíciles. Esta encuesta replantea el razonamiento a través de la lente de la {adaptatividad}: la capacidad de asignar el esfuerzo de razonamiento en función de características de entrada como la dificultad y la incertidumbre. Hacemos tres aportes. Primero, formalizamos el razonamiento deductivo, inductivo y abductivo dentro del contexto del LLM, conectando estos paradigmas cognitivos clásicos con sus realizaciones algorítmicas. En segundo lugar, formalizamos el razonamiento adaptativo como un problema de optimización de políticas con control aumentado que equilibra el desempeño de la tarea con el costo computacional, distinguiendo las políticas aprendidas de los mecanismos de control del tiempo de inferencia. En tercer lugar, proponemos una taxonomía sistemática que organice los métodos existentes en enfoques basados en el entrenamiento que internalicen la adaptabilidad a través del aprendizaje por refuerzo, ajuste supervisado y controladores aprendidos, y enfoques sin entrenamiento que logren la adaptabilidad a través del condicionamiento rápido, la detención impulsada por la retroalimentación y la composición modular. Este marco aclara cómo los diferentes mecanismos realizan el razonamiento adaptativo en la práctica y permite una comparación sistemática entre diversas estrategias. Concluimos identificando desafíos abiertos en la autoevaluación, el metarazonamiento y el control del razonamiento alineado con el ser humano.
Publicado originalmente en export.arxiv.org el 17 de noviembre de 2025.
Ver fuente original
