Resumen:Si bien el aprendizaje automático es prometedor para la predicción de riesgos para la salud materna, la adopción clínica en entornos con recursos limitados enfrenta una barrera crítica: la falta de explicabilidad y confianza. Este estudio presenta un marco híbrido de IA explicable (XAI) que combina lógica difusa ante-hoc con explicaciones SHAP post-hoc, validadas a través de comentarios sistemáticos de los médicos. Desarrollamos un modelo XGBoost difuso en 1.014 registros de salud materna, logrando una precisión del 88,67% (ROC-AUC: 0,9703). Un estudio de validación con 14 profesionales de la salud en Bangladesh reveló una fuerte preferencia por las explicaciones híbridas (71,4% en tres casos clínicos) y el 54,8% expresó confianza en el uso clínico. El análisis SHAP identificó el acceso a la atención médica como el principal predictor, y la puntuación de riesgo difuso diseñada ocupó el tercer lugar, lo que valida la integración del conocimiento clínico (r = 0,298). Los médicos valoraron los parámetros clínicos integrados, pero identificaron lagunas críticas: antecedentes obstétricos, edad gestacional y barreras de conectividad. Este trabajo demuestra que la combinación de reglas difusas interpretables con explicaciones de la importancia de las características mejora tanto la utilidad como la confianza, proporcionando información práctica para la implementación de XAI en la atención médica materna.
Publicado originalmente en export.arxiv.org el 13 de enero de 2026.
Ver fuente original
