Resumen: Los avances recientes en grandes modelos de razonamiento (LRMS) han mostrado capacidades impresionantes en el razonamiento matemático y lógico. Sin embargo, los LRM actuales rara vez admiten ignorancia o responden con “No sé”. En cambio, a menudo producen respuestas incorrectas mientras muestran una confianza indebida, lo que plantea preocupaciones sobre su confiabilidad objetiva. En este trabajo, identificamos dos patrones de razonamiento patológico caracterizados por el pensamiento demasiado que contribuye a las respuestas exageradas e incorrectas: adivinanzas de último minuto y espiral de segundo pensamiento. Para abordar estos temas, proponemos el marco novedoso de barril, que promueve el razonamiento objetivo conciso y con límites. Nuestros experimentos muestran que la capacitación en barril aumenta la confiabilidad de Deepseek-R1-Distill-Llama-8B de 39.33% a 61.48%, al tiempo que logran una precisión comparable a los modelos Finetic en los datos de razonamiento generados por R1. Estos resultados demuestran que nuestro estudio piloto es inspirador para construir un sistema más confiable y objetivo 2 LRMS.
Publicado Originalme en rss.arxiv.org El 20 de mayo de 2025.
Ver Fuente Original