Resumen: Los modelos de aprendizaje automático influyen cada vez más en las decisiones en entornos de alto riesgo, como las finanzas, la ley y la contratación, lo que impulsa la necesidad de resultados transparentes e interpretables. Sin embargo, si bien los enfoques explicables pueden ayudar a comprender las decisiones que se toman, pueden revelar inadvertidamente el algoritmo propietario subyacente: un resultado indeseable para muchos practicantes. En consecuencia, es crucial equilibrar la transparencia significativa con una forma de recurso que aclara por qué se tomó una decisión y ofrece pasos procesables después de los cuales se puede obtener un resultado favorable. Las explicaciones contrafactuales ofrecen un mecanismo poderoso para abordar esta necesidad al mostrar cómo los cambios de entrada específicos conducen a una predicción más favorable. Proponemos la generación contrafactual causalmente restringida del modelo y agnóstico (MC3G), un marco novedoso que aborda las limitaciones en los métodos contrafactuales existentes. Primero, MC3G es el modelo-agnóstico: se aproxima a cualquier modelo de caja negra utilizando un modelo sustituto basado en reglas explicable. En segundo lugar, este sustituto se usa para generar contrafactuales que producen un resultado favorable para el modelo original de caja negra subyacente. En tercer lugar, MC3G refina el cálculo de costos al excluir el “ esfuerzo ”asociado con los cambios de características que ocurren automáticamente debido a las dependencias causales. Al centrar solo en los cambios iniciados por el usuario, MC3G proporciona una representación más realista y justa del esfuerzo necesario para lograr un resultado favorable. Transparencia, responsabilidad y utilidad práctica en procesos de toma de decisiones que incorporan enfoques de aprendizaje automático.
Publicado Originalme en export.arxiv.org El 25 de agosto de 2025.
Ver Fuente Original