Resumen: La asignación de tareas dinámicas se refiere a la asignación óptima de recursos a las tareas en un proceso comercial. Recientemente, el aprendizaje de refuerzo profundo (DRL) se ha propuesto como el estado del arte para resolver problemas de asignación. Los métodos DRL generalmente emplean una red neuronal (NN) como aproximador para la función de política, que ingiere el estado del proceso y genera una valoración de las posibles tareas. Sin embargo, representar el estado y las posibles tareas para que puedan servir como entradas y salidas para una política NN sigue siendo un desafío abierto, especialmente cuando las tareas o recursos tienen características con un número infinito de valores posibles. Para resolver este problema, este documento propone un método para representar y resolver problemas de asignación con espacios de estado y de acción infinitos. Al hacerlo, proporciona tres contribuciones: (i) una representación de características basada en gráficos de los problemas de asignación, que llamamos gráfico de asignación; (Ii) un mapeo de redes de Petri de color marcadas a gráficos de asignación; (Iii) Una adaptación del algoritmo de optimización de políticas proximales que puede aprender a resolver los problemas de asignación representados a través de gráficos de asignación. Para evaluar el método de representación propuesto, modelamos tres problemas de asignación arquetípica que van desde dimensiones del espacio finito hasta el estado infinito y del espacio de acción. Los experimentos muestran que el método es adecuado para representar y aprender políticas de asignación de tareas cercanas a las óptimas, independientemente de las dimensiones del espacio de estado y de acción.
Publicado Originalme en export.arxiv.org El 7 de julio de 2025.
Ver Fuente Original