Resumen:Este artículo presenta una investigación teórica integral sobre la complejidad parametrizada de los problemas de explicación en varios modelos de aprendizaje automático (ML). Contrariamente a la percepción predominante de caja negra, nuestro estudio se centra en modelos con mecanismos internos transparentes. Abordamos dos tipos principales de problemas de explicación: abductivos y contrastivos, tanto en su variante local como global. Nuestro análisis abarca diversos modelos de ML, incluidos árboles de decisión, conjuntos de decisiones, listas de decisiones, circuitos booleanos y conjuntos de ellos, cada uno de los cuales ofrece desafíos explicativos únicos. Esta investigación llena un vacío importante en la IA explicable (XAI) al proporcionar una comprensión fundamental de las complejidades de generar explicaciones para estos modelos. Este trabajo proporciona información vital para futuras investigaciones en el dominio de XAI, contribuyendo al discurso más amplio sobre la necesidad de transparencia y responsabilidad en los sistemas de IA.
Publicado originalmente en export.arxiv.org el 5 de noviembre de 2025.
Ver fuente original
