En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Barrel: razonamiento consciente de los límites para LRMs objetivos y confiables

Barrel: razonamiento consciente de los límites para LRMs objetivos y confiables

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los avances recientes en grandes modelos de razonamiento (LRMS) han mostrado capacidades impresionantes en el razonamiento matemático y lógico. Sin embargo, los LRM actuales rara vez admiten ignorancia o responden con “No sé”. En cambio, a menudo producen respuestas incorrectas mientras muestran una confianza indebida, lo que plantea preocupaciones sobre su confiabilidad objetiva. En este trabajo, identificamos dos patrones de razonamiento patológico caracterizados por el pensamiento demasiado que contribuye a las respuestas exageradas e incorrectas: adivinanzas de último minuto y espiral de segundo pensamiento. Para abordar estos temas, proponemos el marco novedoso de barril, que promueve el razonamiento objetivo conciso y con límites. Nuestros experimentos muestran que la capacitación en barril aumenta la confiabilidad de Deepseek-R1-Distill-Llama-8B de 39.33% a 61.48%, al tiempo que logran una precisión comparable a los modelos Finetic en los datos de razonamiento generados por R1. Estos resultados demuestran que nuestro estudio piloto es inspirador para construir un sistema más confiable y objetivo 2 LRMS.

Publicado Originalme en rss.arxiv.org El 20 de mayo de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web