En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Extender gráficos de predicado de decisión para una explicación integral del bosque de aislamiento

Extender gráficos de predicado de decisión para una explicación integral del bosque de aislamiento

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La necesidad de explicar los modelos predictivos está bien establecido en el aprendizaje automático moderno. Sin embargo, más allá de la interpretabilidad del modelo, comprender los métodos de preprocesamiento es igualmente esencial. Comprender cómo las modificaciones de datos impactan las mejoras del rendimiento del modelo y los posibles sesgos y promover una tubería confiable es obligatorio para desarrollar soluciones robustas de aprendizaje automático. El bosque de aislamiento (iforest) es una técnica ampliamente utilizada para la detección atípica que funciona bien. Su efectividad aumenta con el número de estudiantes basados ​​en árboles. Sin embargo, esto también complica la explicación de la selección atípica y los límites de decisión para los inliers. Esta investigación introduce un nuevo método de IA explicable (XAI), abordando el problema de la explicabilidad global. En detalle, su objetivo es ofrecer una explicación global para la detección atípica para abordar su naturaleza opaca. Nuestro enfoque se basa en el gráfico de predicado de decisión (DPG), que aclara la lógica de los métodos de conjunto y proporciona información y una métrica basada en gráficos para explicar cómo las muestras se identifican como valores atípicos utilizando el puntaje de propagación propuesto por más bajo (puntaje IOP). Nuestra propuesta mejora la explicabilidad de Iforest y proporciona una visión integral del proceso de toma de decisiones, que detalla qué características contribuyen a la identificación atípica y cómo el modelo los utiliza. Este método avanza el estado del arte al proporcionar información sobre los límites de decisión y una visión integral del uso de características holísticas en la identificación atípica. – Promoviendo así una tubería de aprendizaje automático totalmente explicable.

Publicado Originalme en rss.arxiv.org El 7 de mayo de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web