En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Explicar la capacidad a través del diseño centrado en el ser humano para XAI en la detección del cáncer de pulmón

Explicar la capacidad a través del diseño centrado en el ser humano para XAI en la detección del cáncer de pulmón

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: Los modelos de aprendizaje profundo han demostrado ser prometedor en la detección de patología pulmonar a partir de radiografías de tórax, pero la adopción clínica generalizada sigue siendo limitada debido a la toma de decisiones del modelo opaco. En trabajos anteriores, introdujimos Clinicxai, un modelo de cuello de botella (CBM) centrado en el humano y guiado por expertos diseñado para el diagnóstico de cáncer de pulmón interpretable. Ahora ampliamos ese enfoque y presente Xpertxai, un modelo generalizable impulsado por expertos que preserva los conceptos clínicos interesados ​​en humanos mientras se escala para detectar múltiples patologías pulmonares. Utilizando un clasificador basado en InceptionV3 de alto rendimiento y un conjunto de datos públicos de radiografías de tórax con informes de radiología, comparamos Xpertxai con los principales métodos de explicabilidad post-hoc y un CBM no supervisado, XCBS. Evaluamos las explicaciones a través de la comparación con las anotaciones de radiólogo experto y la verdad médica. Aunque Xpertxai está capacitado para múltiples patologías, nuestra validación experta se centra en el cáncer de pulmón. Encontramos que las técnicas existentes con frecuencia no producen explicaciones clínicamente significativas, omiten las características de diagnóstico clave y no están de acuerdo con los juicios de radiólogo. Xpertxai no solo supera a estas líneas de base en la precisión predictiva, sino que también ofrece explicaciones de nivel de concepto que se alinean mejor con el razonamiento experto. Si bien nuestro enfoque permanece en la explicabilidad en la detección del cáncer de pulmón, este trabajo ilustra cómo el diseño del modelo centrado en el ser humano puede extenderse efectivamente a contextos de diagnóstico más amplios, que ofrece un camino escalable hacia una IA explicable clínicamente significativa en el diagnóstico médico.

Publicado Originalme en rss.arxiv.org El 15 de mayo de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web