Resumen: Los modelos de lenguajes grandes (LLM) a menudo generan contenido sustancialmente relevante pero no cumplen con las restricciones formales, lo que genera resultados que son conceptualmente correctos pero procedimentalmente defectuosos. Los enfoques tradicionales de refinamiento rápido se centran en reformular la descripción de la tarea principal que debe realizar un LLM, descuidando las restricciones granulares que funcionan como criterios de aceptación para su respuesta. Proponemos un novedoso flujo de trabajo multiagente que desacopla la optimización de la descripción de la tarea principal de sus limitaciones, utilizando puntuaciones cuantitativas como retroalimentación para reescribirlas y mejorarlas de forma iterativa. Nuestra evaluación demuestra que este método produce indicaciones revisadas que generan puntuaciones de cumplimiento significativamente más altas de modelos como Llama 3.1 8B y Mixtral-8x 7B.
Publicado originalmente en export.arxiv.org el 7 de enero de 2026.
Ver fuente original
