En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Un enfoque universal para la representación de características en problemas de asignación de tareas dinámicas

Un enfoque universal para la representación de características en problemas de asignación de tareas dinámicas

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La asignación de tareas dinámicas se refiere a la asignación óptima de recursos a las tareas en un proceso comercial. Recientemente, el aprendizaje de refuerzo profundo (DRL) se ha propuesto como el estado del arte para resolver problemas de asignación. Los métodos DRL generalmente emplean una red neuronal (NN) como aproximador para la función de política, que ingiere el estado del proceso y genera una valoración de las posibles tareas. Sin embargo, representar el estado y las posibles tareas para que puedan servir como entradas y salidas para una política NN sigue siendo un desafío abierto, especialmente cuando las tareas o recursos tienen características con un número infinito de valores posibles. Para resolver este problema, este documento propone un método para representar y resolver problemas de asignación con espacios de estado y de acción infinitos. Al hacerlo, proporciona tres contribuciones: (i) una representación de características basada en gráficos de los problemas de asignación, que llamamos gráfico de asignación; (Ii) un mapeo de redes de Petri de color marcadas a gráficos de asignación; (Iii) Una adaptación del algoritmo de optimización de políticas proximales que puede aprender a resolver los problemas de asignación representados a través de gráficos de asignación. Para evaluar el método de representación propuesto, modelamos tres problemas de asignación arquetípica que van desde dimensiones del espacio finito hasta el estado infinito y del espacio de acción. Los experimentos muestran que el método es adecuado para representar y aprender políticas de asignación de tareas cercanas a las óptimas, independientemente de las dimensiones del espacio de estado y de acción.

Publicado Originalme en export.arxiv.org El 7 de julio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web