En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Destilando el aprendizaje por refuerzo profundo en reglas difusas interpretables: un marco de IA explicable

Destilando el aprendizaje por refuerzo profundo en reglas difusas interpretables: un marco de IA explicable

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los agentes de aprendizaje por refuerzo profundo (DRL) logran un rendimiento notable en el control continuo, pero permanecen opacos, lo que dificulta el despliegue en dominios críticos para la seguridad. Los métodos de explicabilidad existentes proporcionan sólo conocimientos locales (SHAP, LIME) o emplean sustitutos demasiado simplificados que no logran capturar la dinámica continua (árboles de decisión). Este trabajo propone un sistema clasificador difuso (FCS) jerárquico Takagi-Sugeno-Kang (TSK) que destila políticas neuronales en reglas IF-THEN legibles por humanos a través de agrupamiento de K-Means para la partición de estados y regresión de crestas para la inferencia de acciones locales. Se introducen tres métricas cuantificables: la densidad de activación de reglas difusas (FRAD) que mide el enfoque de la explicación, la cobertura de conjuntos difusos (FSC) que valida la integridad del vocabulario y la granularidad del espacio de acción (ASG) que evalúa la diversidad del modo de control. Dynamic Time Warping (DTW) valida la fidelidad del comportamiento temporal. La evaluación empírica en textit{Lunar Lander(Continuous)} muestra que la variante de la función de membresía triangular logra una fidelidad del 81,48% $pm$ 0,43%, superando a los árboles de decisión en 21 puntos porcentuales. El marco muestra una interpretabilidad estadísticamente superior (FRAD = 0,814 frente a 0,723 para gaussiano, $p <0,001$) con MSE (0,0053) y distancia DTW (1,05) bajos. Reglas extraídas como "SI el módulo de aterrizaje se desplaza hacia la izquierda a gran altitud ENTONCES aplica empuje hacia arriba con corrección hacia la derecha" permiten la verificación humana, estableciendo un camino hacia sistemas autónomos confiables.

Publicado originalmente en export.arxiv.org el 16 de marzo de 2026.
Ver fuente original

admin

Usuario de administración del sitio web