En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Descubriendo errores en explicadores formales: un estudio de caso con PyXAI

Descubriendo errores en explicadores formales: un estudio de caso con PyXAI

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La inteligencia artificial formal explicable (XAI) ofrece garantías teóricas únicas de rigor en comparación con otros métodos no formales de explicabilidad. Sin embargo, se ha prestado poca atención a la validación de implementaciones prácticas de explicadores formales. Este artículo desarrolla una metodología novedosa para validar explicadores formales e informes sobre la evaluación del explicador formal disponible públicamente PyXAI. El artículo documenta la existencia de explicaciones incorrectas calculadas por PyXAI en la mayoría de los conjuntos de datos analizados en los experimentos, confirmando así la importancia de la novedosa metodología propuesta para la validación de explicadores formales.

Publicado originalmente en export.arxiv.org el 5 de noviembre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web