Resumen:La optimización se trata tanto de modelar el problema correcto como de resolverlo. Identificar los objetivos, las limitaciones y las compensaciones correctas exige una amplia interacción entre los investigadores y las partes interesadas. Los modelos de lenguaje grandes pueden brindar a los tomadores de decisiones capacidades de optimización a través de agentes de optimización interactivos que pueden proponer, interpretar y perfeccionar soluciones. Sin embargo, es fundamentalmente más difícil evaluar una interacción basada en una conversación que los enfoques tradicionales de una sola vez. Este artículo propone una metodología escalable y replicable para evaluar agentes de optimización a través de conversaciones. Construimos agentes de toma de decisiones impulsados por LLM que interpretan roles de diversas partes interesadas, cada una gobernada por una función de utilidad interna pero comunicándose como un verdadero tomador de decisiones. Generamos miles de conversaciones en un caso de estudio de programación escolar. Los resultados muestran que la evaluación única es muy limitante: el mismo agente de optimización converge hacia soluciones de mucha mayor calidad a través de conversaciones. Luego, este artículo utiliza esta metodología para demostrar que los agentes de optimización personalizados, dotados de indicaciones específicas de dominio y herramientas estructuradas, pueden conducir a mejoras significativas en la calidad de la solución en menos interacciones, en comparación con los chatbots de propósito general. Estos hallazgos proporcionan evidencia de los beneficios de las soluciones emergentes en la interfaz de optimización de IA para ampliar el alcance de las tecnologías de optimización en la práctica. También descubren el impacto de la experiencia en investigación de operaciones para facilitar implementaciones interactivas mediante el diseño de agentes de optimización eficaces y confiables.
Publicado originalmente en export.arxiv.org el 5 de abril de 2026.
Ver fuente original
