En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->CAC-COT: la cadena de pensamiento compacta con el conector para la síntesis de datos de razonamiento eficiente en las tareas cognitivas del sistema dual

CAC-COT: la cadena de pensamiento compacta con el conector para la síntesis de datos de razonamiento eficiente en las tareas cognitivas del sistema dual

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La provisión larga de la cadena de pensamiento (COT) ayuda a los modelos de lenguaje grande (LLMS) a resolver problemas difíciles, pero los rastros muy largos a menudo ralentizan o incluso degradan el rendimiento en tareas rápidas e intuitivas “System-1”. Introducimos COT compacta con el conector (CAC-COT), un método que restringe deliberadamente el razonamiento a un conjunto pequeño y fijo de frases de conector, dirigiendo el modelo hacia explicaciones concisas y bien estructuradas. A pesar de su simplicidad, nuestro método sintético con Gemini-2.0-Flash produce una calidad de entrenamiento de alta calidad. CAC-COT logra aproximadamente el 85% en GSM8K y aproximadamente el 40% en GPQA (System-2), al tiempo que conserva aproximadamente el 90% en S1-Bench (System-1). Sus trazas de razonamiento promedian aproximadamente 300 tokens (ART), aproximadamente un tercio de la longitud de las trazas de referencia, que ofrecen una mayor eficiencia sin pérdida de precisión.

Publicado Originalme en export.arxiv.org El 26 de agosto de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web