Resumen: Los modelos de lenguajes grandes (LLM) han abierto nuevos paradigmas en el modelado de optimización al permitir la generación de código de resolución ejecutable a partir de descripciones en lenguaje natural. A pesar de esta promesa, los enfoques existentes generalmente siguen estando impulsados por solucionadores: se basan en la generación directa de un solo paso y aplican correcciones post-hoc limitadas basadas en mensajes de error del solucionador, dejando errores semánticos no detectados que silenciosamente producen modelos sintácticamente correctos pero lógicamente defectuosos. Para abordar este desafío, proponemos SAC-Opt, un marco de corrección guiado hacia atrás que basa el modelado de optimización en la semántica del problema en lugar de en la retroalimentación del solucionador. En cada paso, SAC-Opt alinea los anclajes semánticos originales con los reconstruidos a partir del código generado y corrige selectivamente solo los componentes que no coinciden, impulsando la convergencia hacia un modelo semánticamente fiel. Esta corrección basada en anclajes permite un refinamiento detallado de la lógica objetiva y de restricción, mejorando tanto la fidelidad como la solidez sin requerir capacitación o supervisión adicional. Los resultados empíricos en siete conjuntos de datos públicos demuestran que SAC-Opt mejora la precisión media del modelado en un 7,8%, con ganancias de hasta un 21,9% en el conjunto de datos ComplexLP. Estos hallazgos resaltan la importancia de la corrección semántica anclada en los flujos de trabajo de optimización basados en LLM para garantizar una traducción fiel de la intención del problema al código ejecutable del solucionador.
Publicado originalmente en export.arxiv.org el 7 de octubre de 2025.
Ver fuente original
