En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Mejora del seguimiento de las instrucciones de LLM: un flujo de trabajo multiagente basado en evaluaciones para una optimización rápida de las instrucciones

Mejora del seguimiento de las instrucciones de LLM: un flujo de trabajo multiagente basado en evaluaciones para una optimización rápida de las instrucciones

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los modelos de lenguajes grandes (LLM) a menudo generan contenido sustancialmente relevante pero no cumplen con las restricciones formales, lo que genera resultados que son conceptualmente correctos pero procedimentalmente defectuosos. Los enfoques tradicionales de refinamiento rápido se centran en reformular la descripción de la tarea principal que debe realizar un LLM, descuidando las restricciones granulares que funcionan como criterios de aceptación para su respuesta. Proponemos un novedoso flujo de trabajo multiagente que desacopla la optimización de la descripción de la tarea principal de sus limitaciones, utilizando puntuaciones cuantitativas como retroalimentación para reescribirlas y mejorarlas de forma iterativa. Nuestra evaluación demuestra que este método produce indicaciones revisadas que generan puntuaciones de cumplimiento significativamente más altas de modelos como Llama 3.1 8B y Mixtral-8x 7B.

Publicado originalmente en export.arxiv.org el 7 de enero de 2026.
Ver fuente original

admin

Usuario de administración del sitio web