En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Un estudio de usuario que evalúa las explicaciones argumentativas en el soporte de decisiones de diagnóstico

Un estudio de usuario que evalúa las explicaciones argumentativas en el soporte de decisiones de diagnóstico

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: A medida que el campo de la salud adopta cada vez más la inteligencia artificial, se hace importante comprender qué tipos de explicaciones aumentan la transparencia y capacitan a los usuarios para desarrollar la confianza y la confianza en las predicciones hechas por los sistemas de aprendizaje automático (ML). En escenarios compartidos de toma de decisiones donde los médicos cooperan con los sistemas de ML para llegar a una decisión apropiada, es crucial establecer la confianza mutua. En este artículo, exploramos diferentes enfoques para generar explicaciones en AI explicable (XAI) y hacer explícitos sus argumentos subyacentes para que puedan ser evaluados por expertos médicos. En particular, presentamos los hallazgos de un estudio de usuario realizado con médicos para investigar sus percepciones de varios tipos de explicaciones generadas por IA en el contexto del apoyo a la decisión de diagnóstico. El estudio tiene como objetivo identificar las explicaciones más efectivas y útiles que mejoran el proceso de diagnóstico. En el estudio, los médicos completaron una encuesta para evaluar diferentes tipos de explicaciones. Además, se llevó a cabo una entrevista posterior a la encuesta para obtener información cualitativa sobre los requisitos de las explicaciones incorporadas en el apoyo a la decisión de diagnóstico. En general, las ideas obtenidas de este estudio contribuyen a comprender los tipos de explicaciones que son más efectivas.

Publicado Originalme en rss.arxiv.org El 15 de mayo de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web