Resumen: Los métodos modernos para el aprendizaje automático explicable están diseñados para describir cómo los modelos mapean las entradas a las salidas, sin considerar una profunda consideración de cómo se utilizarán estas explicaciones en la práctica. Este documento argumenta que las explicaciones deben diseñarse y evaluarse con un final específico en mente. Describimos cómo formalizar este fin en un marco basado en la teoría de decisiones estadísticas. Mostramos cómo este enfoque de tierra funcionalmente se puede aplicar en diversos casos de uso, como el apoyo a la decisión clínica, el recurso o la depuración. Demostramos su uso para caracterizar el “impulso” máximo en el rendimiento en una tarea particular de que una explicación podría proporcionar un tomador de decisiones idealizado, evitando el mal uso debido a la ambigüedad al obligar a los investigadores a especificar casos de uso concretos que puedan analizarse a la luz de los modelos de uso de explicación esperado. Argumentamos que la evaluación debería combinar perspectivas teóricas y empíricas sobre el valor de la explicación, y contribuir con definiciones que abarcan estas perspectivas.
Publicado Originalme en export.arxiv.org El 30 de junio de 2025.
Ver Fuente Original