Resumen: Los agentes de Large Language Model (LLM) se implementan cada vez más en entornos que generan contextos masivos y dinámicos. Sin embargo, persiste un cuello de botella crítico: si bien los agentes tienen acceso a este contexto, sus indicaciones estáticas carecen de los mecanismos para gestionarlo de manera efectiva, lo que lleva a fallas recurrentes de corrección y mejora. Para abordar esta brecha de capacidad, presentamos textbf{SCOPE} (Optimización de contexto autoevolutiva mediante Prompt Evolution). SCOPE enmarca la gestión del contexto como un problema de textit{optimización en línea}, sintetizando pautas a partir de seguimientos de ejecución para evolucionar automáticamente el mensaje del agente. Proponemos un mecanismo de doble corriente que equilibra la especificidad táctica (resolver errores inmediatos) con la generalidad estratégica (evolución de principios a largo plazo). Además, introducimos la exploración basada en perspectivas para maximizar la cobertura de la estrategia, aumentando la probabilidad de que el agente tenga la estrategia correcta para cualquier tarea determinada. Los experimentos con el benchmark HLE muestran que SCOPE mejora las tasas de éxito de las tareas del 14,23% al 38,64% sin intervención humana. Ponemos nuestro código a disposición del público en esta URL https.
Publicado originalmente en export.arxiv.org el 18 de diciembre de 2025.
Ver fuente original
