Resumen: A medida que los sistemas de aprendizaje automático informan cada vez más decisiones críticas, crece la necesidad de explicaciones que se pueden poner en cuenta humana. Las evaluaciones actuales de la IA explicable (XAI) a menudo priorizan la fidelidad técnica sobre la accesibilidad cognitiva que afecta críticamente a los usuarios, en particular a aquellos con impedimentos visuales. Proponemos Cue, un modelo para la comprensión cognitiva de las explicaciones, vinculando las propiedades de explicación con los subprocesos cognitivos: legibilidad (percepción), legibilidad (comprensión) e interpretabilidad (interpretación). En un estudio (n = 455) que prueba los mapas de calor con diversas anormapas (BWR, Cividis, Coolwarm), encontramos un rendimiento de la tarea comparable pero menor confianza/esfuerzo para usuarios con discapacidad visual. A diferencia de la esperada, estos huecos no fueron mitigados y, a veces, empeoraron por mapas de color centrados en la accesibilidad como Cividis. Estos resultados desafían los supuestos sobre la optimización perceptual y respaldan la necesidad de interfaces XAI adaptativas. También validan la señal demostrando que alterar la explicación de la legibilidad afecta la comprensión. Contribuimos: (1) un modelo cognitivo formal para la comprensión de la explicación, (2) una definición integrada de propiedades de explicación centradas en el humano y (3) evidencia empírica que motiva a XAI accesible y accesible.
Publicado Originalme en rss.arxiv.org El 18 de junio de 2025.
Ver Fuente Original