Resumen: Los grandes modelos de razonamiento (LRM) han atraído una atención significativa por parte de los investigadores debido a su capacidad excepcional para abordar tareas complejas. Motivado por los comportamientos humanos observados en sus procesos de razonamiento, este artículo presenta una taxonomía integral para caracterizar los pasos del razonamiento atómico y sondear la “psique” de la inteligencia LRM. Específicamente, comprende cinco grupos y diecisiete categorías derivadas de procesos mentales humanos, fundamentando así la comprensión de los LRM en una perspectiva interdisciplinaria. Luego, la taxonomía se aplica para una comprensión profunda de los LRM actuales, lo que da como resultado un conjunto de datos etiquetados distintos que comprende 277.534 pasos de razonamiento atómico. Utilizando este recurso, analizamos los LRM contemporáneos y destilamos varias conclusiones prácticas para mejorar el entrenamiento y el post-entrenamiento de modelos de razonamiento. En particular, nuestro análisis revela que las “dobles verificaciones” (evaluaciones de autocontrol) predominantes después de la respuesta son en gran medida superficiales y rara vez producen revisiones sustanciales. Por lo tanto, incentivar una reflexión integral de varios pasos, en lugar de un simple autocontrol, puede ofrecer un camino más eficaz a seguir. Para complementar la taxonomía, se propone un marco de anotación automática, denominado CAPO, para aprovechar los modelos de lenguajes grandes (LLM) para generar anotaciones basadas en taxonomía. Los resultados experimentales demuestran que CAPO logra una mayor coherencia con los expertos humanos en comparación con las líneas de base, lo que facilita un análisis escalable y completo de los LRM desde una perspectiva cognitiva humana. Juntos, la taxonomía, CAPO y los conocimientos derivados proporcionan un camino escalable y basado en principios hacia la comprensión y el avance del razonamiento LRM.
Publicado originalmente en export.arxiv.org el 1 de diciembre de 2025.
Ver fuente original
