Resumen: El razonamiento matemático ha representado durante mucho tiempo una de las fronteras más fundamentales y desafiantes en la investigación de inteligencia artificial. En los últimos años, los modelos de idiomas grandes (LLM) han logrado avances significativos en esta área. Esta encuesta examina el desarrollo de habilidades de razonamiento matemático en LLM a través de dos fases cognitivas de alto nivel: la comprensión, donde los modelos obtienen comprensión matemática a través de diversas estrategias previas a la medida y la generación de respuestas, que ha progresado de la predicción directa a la razonamiento paso a paso de la cadena de pensamiento (COT). Revisamos los métodos para mejorar el razonamiento matemático, que van desde la incrustación sin capacitación hasta enfoques ajustados como el aprendizaje supervisado y el aprendizaje de refuerzo, y discuten el trabajo reciente sobre cot extendido y “escalado de tiempo de prueba”. A pesar del progreso notable, los desafíos fundamentales permanecen en términos de capacidad, eficiencia y generalización. Para abordar estos temas, destacamos direcciones prometedoras de investigación, incluidas las técnicas avanzadas de previación y aumento de conocimiento, marcos de razonamiento formal y meta-generalización a través de paradigmas de aprendizaje de principios. Esta encuesta trata de proporcionar algunas ideas para los investigadores interesados en mejorar las capacidades de razonamiento de LLM y para aquellos que buscan aplicar estas técnicas a otros dominios.
Publicado Originalme en rss.arxiv.org El 10 de junio de 2025.
Ver Fuente Original