En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Intención de cadena de pensamiento con enrutamiento dinámico para la generación de código

Intención de cadena de pensamiento con enrutamiento dinámico para la generación de código

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los modelos de lenguajes grandes (LLM) exhiben fuertes capacidades generativas y han demostrado un gran potencial en la generación de código. Los métodos de estimulación de cadena de pensamiento (CoT) existentes mejoran el razonamiento del modelo al provocar pasos intermedios, pero adolecen de dos limitaciones importantes: en primer lugar, su aplicación uniforme tiende a inducir a pensar demasiado en tareas simples. En segundo lugar, carecen de abstracción intencional en la generación de código, como modelar explícitamente el diseño y la eficiencia algorítmicos centrales, lo que lleva a los modelos a centrarse en estructuras a nivel de superficie y descuidar el objetivo del problema global. Inspirándonos en el principio de la economía cognitiva de utilizar el razonamiento estructurado sólo cuando sea necesario para conservar los recursos cognitivos, proponemos RoutingGen, un novedoso marco de enrutamiento consciente de la dificultad que adapta dinámicamente las estrategias de estimulación para la generación de código. Para tareas sencillas, adopta indicaciones breves; para los más complejos, invoca una estrategia de razonamiento estructurado, denominada cadena de pensamiento de intención (ICoT), que introducimos para guiar el modelo en la captura de la intención de la tarea, como la lógica algorítmica central y su complejidad temporal. Los experimentos en tres modelos y seis puntos de referencia de generación de código estándar muestran que RoutingGen logra un rendimiento de vanguardia en la mayoría de las configuraciones, al tiempo que reduce el uso total de tokens en un 46,37% en promedio en todas las configuraciones. Además, ICoT supera seis líneas de base de estimulación existentes en puntos de referencia desafiantes.

Publicado originalmente en export.arxiv.org el 16 de diciembre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web