Resumen: La inteligencia artificial formal explicable (XAI) ofrece garantías teóricas únicas de rigor en comparación con otros métodos no formales de explicabilidad. Sin embargo, se ha prestado poca atención a la validación de implementaciones prácticas de explicadores formales. Este artículo desarrolla una metodología novedosa para validar explicadores formales e informes sobre la evaluación del explicador formal disponible públicamente PyXAI. El artículo documenta la existencia de explicaciones incorrectas calculadas por PyXAI en la mayoría de los conjuntos de datos analizados en los experimentos, confirmando así la importancia de la novedosa metodología propuesta para la validación de explicadores formales.
Publicado originalmente en export.arxiv.org el 5 de noviembre de 2025.
Ver fuente original
