En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Grafique el aprendizaje por refuerzo contextual para una síntesis eficiente de controladores dirigidos

Grafique el aprendizaje por refuerzo contextual para una síntesis eficiente de controladores dirigidos

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La síntesis de controladores es un método formal para generar automáticamente controladores de Sistema de transición etiquetado (LTS) que satisfacen propiedades específicas. Sin embargo, la eficiencia del proceso de síntesis depende críticamente de las políticas de exploración. Estas políticas a menudo se basan en reglas fijas o estrategias aprendidas a través del aprendizaje por refuerzo (RL) que consideran solo un conjunto limitado de características actuales. Para abordar esta limitación, este artículo presenta GCRL, un enfoque que mejora los métodos basados ​​en RL mediante la integración de Graph Neural Networks (GNN). GCRL codifica la historia de la exploración LTS en una estructura gráfica, lo que le permite capturar un contexto más amplio y no actual. En un experimento comparativo con métodos de última generación, GCRL mostró una eficiencia de aprendizaje y una generalización superiores en cuatro de cinco dominios de referencia, excepto un dominio particular caracterizado por una alta simetría e interacciones estrictamente locales.

Publicado originalmente en export.arxiv.org el 18 de diciembre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web