En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->En modelos y explicaciones basados ​​en reglas confiables

En modelos y explicaciones basados ​​en reglas confiables

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Una tarea de interés en el aprendizaje automático (ML) es la de atribuir explicaciones a las predicciones hechas por los modelos ML. Además, en los dominios considerados de alto riesgo, el rigor de las explicaciones es primordial. De hecho, las explicaciones incorrectas pueden engañar y engañarán a los tomadores de decisiones humanas. Como resultado, e incluso si la interpretabilidad se reconoce como un concepto esquivo, los llamados modelos interpretables se emplean de manera ubicuamente en usos de alto riesgo de ML y minería de datos (DM). Este es el caso de los modelos ML basados en reglas, que abarcan árboles de decisión, diagramas, conjuntos y listas. Este documento relaciona explicaciones con las conocidas facetas no conocidas de los modelos ML basados en reglas, que incluyen superposición negativa y varias formas de redundancia. El documento desarrolla algoritmos para el análisis de estas facetas no deseadas de sistemas basados en reglas, y concluye que las herramientas bien conocidas y ampliamente utilizadas para los modelos ML basados en reglas de aprendizaje inducirán conjuntos de reglas que exhiben una o más facetas negativas.

Publicado Originalme en export.arxiv.org El 10 de julio de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web