Resumen:Este artículo analiza la inteligencia artificial explicable consciente de la incertidumbre (UAXAI), examinando cómo se incorpora la incertidumbre en los procesos explicativos y cómo se evalúan dichos métodos. A lo largo de la literatura, surgen tres enfoques recurrentes para la cuantificación de la incertidumbre (métodos bayesiano, Montecarlo y conforme), junto con distintas estrategias para integrar la incertidumbre en las explicaciones: evaluar la confiabilidad, restringir modelos o explicaciones y comunicar explícitamente la incertidumbre. Las prácticas de evaluación siguen estando fragmentadas y centradas en gran medida en modelos, con atención limitada a los usuarios e informes inconsistentes de las propiedades de confiabilidad (por ejemplo, calibración, cobertura, estabilidad de la explicación). El trabajo reciente se inclina hacia la calibración, las técnicas libres de distribución y reconoce la variabilidad del explicador como una preocupación central. Sostenemos que el progreso en la UAXAI requiere principios de evaluación unificados que vinculen la propagación de la incertidumbre, la solidez y la toma de decisiones humanas, y destacamos los enfoques contrafactuales y de calibración como vías prometedoras para alinear la interpretabilidad con la confiabilidad.
Publicado originalmente en export.arxiv.org el 30 de marzo de 2026.
Ver fuente original
