Resumen: La interpretabilidad del modelo es crucial para establecer la seguridad de la IA y la confianza de los médicos en aplicaciones médicas, por ejemplo, en el modelado de supervivencia con riesgos competitivos. Los modelos recientes de aprendizaje profundo han logrado un rendimiento predictivo muy bueno, pero su transparencia limitada, al ser modelos de caja negra, dificulta su integración en la práctica clínica. Para abordar esta brecha, proponemos un modelo de supervivencia intrínsecamente interpretable llamado CRISPNAM-FG. Aprovechando la estructura de los modelos aditivos neuronales (NAM) con vectores de proyección separados para cada riesgo, nuestro enfoque predice la función de incidencia acumulativa utilizando la formulación Fine-Gray, logrando un alto poder predictivo con predicciones intrínsecamente transparentes y auditables. Validamos el modelo en varios conjuntos de datos de referencia y aplicamos nuestro modelo para predecir futuras complicaciones del pie en pacientes diabéticos en 29 hospitales de Ontario (2016-2023). Nuestro método logra un rendimiento competitivo en comparación con otros modelos de supervivencia profunda al tiempo que proporciona transparencia a través de funciones de forma y gráficos de importancia de características.
Publicado originalmente en export.arxiv.org el 25 de enero de 2026.
Ver fuente original
