Resumen: Este documento presenta el primer estudio sistemático integrado sobre el rendimiento de los modelos de lenguaje grande (LLMS), específicamente CHATGPT, para formular y resolver automáticamente problemas de optimización estocástica de las descripciones del lenguaje natural. Centrándose en tres categorías clave, modelos conjuntos limitados con la oportunidad, modelos individuales con restricciones de oportunidad y programas lineales estocásticos de dos etapas (SLP-2), diseñamos varias indicaciones que guían el CHATGPT a través de tareas estructuradas utilizando una cadena de pensamiento y razonamiento modular. Introducimos una nueva métrica de puntuación suave que evalúa la calidad estructural y la corrección parcial de los modelos generados, abordando las limitaciones de la precisión canónica y basada en la ejecución. En un conjunto diverso de problemas estocásticos, GPT-4-TURBO supera a otros modelos en puntaje parcial, coincidencia variable y precisión objetiva, con COT_S_Instrucciones y emergentes de agente como las estrategias de indicación más efectivas. Nuestros hallazgos revelan que con las indicaciones bien diseñadas y la colaboración de múltiples agentes, los LLM pueden facilitar formulaciones especialmente estocásticas, allanando el camino para tuberías de modelado inteligentes y basadas en el lenguaje en la optiización estocástica.
Publicado Originalme en export.arxiv.org El 25 de agosto de 2025.
Ver Fuente Original
