En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Con respecto a la incertidumbre: una encuesta sistemática de XAI consciente de la incertidumbre

Con respecto a la incertidumbre: una encuesta sistemática de XAI consciente de la incertidumbre

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen:Este artículo analiza la inteligencia artificial explicable consciente de la incertidumbre (UAXAI), examinando cómo se incorpora la incertidumbre en los procesos explicativos y cómo se evalúan dichos métodos. A lo largo de la literatura, surgen tres enfoques recurrentes para la cuantificación de la incertidumbre (métodos bayesiano, Montecarlo y conforme), junto con distintas estrategias para integrar la incertidumbre en las explicaciones: evaluar la confiabilidad, restringir modelos o explicaciones y comunicar explícitamente la incertidumbre. Las prácticas de evaluación siguen estando fragmentadas y centradas en gran medida en modelos, con atención limitada a los usuarios e informes inconsistentes de las propiedades de confiabilidad (por ejemplo, calibración, cobertura, estabilidad de la explicación). El trabajo reciente se inclina hacia la calibración, las técnicas libres de distribución y reconoce la variabilidad del explicador como una preocupación central. Sostenemos que el progreso en la UAXAI requiere principios de evaluación unificados que vinculen la propagación de la incertidumbre, la solidez y la toma de decisiones humanas, y destacamos los enfoques contrafactuales y de calibración como vías prometedoras para alinear la interpretabilidad con la confiabilidad.

Publicado originalmente en export.arxiv.org el 30 de marzo de 2026.
Ver fuente original

admin

Usuario de administración del sitio web