Resumen: Las herramientas de inteligencia artificial (IA) para la radiología se despliegan comúnmente una vez implementadas. La falta de evaluaciones de predicción de IA de caso en tiempo real requiere que los usuarios distinguen de forma independiente entre predicciones de IA confiables y poco confiables, lo que aumenta la carga cognitiva, reduce la productividad y potencialmente conduce a errores de diagnósticos erróneos. Para abordar estos desafíos, introducimos el Modelo de Monitoreo de Enjuntos (EMM), un marco inspirado en prácticas de consenso clínico utilizando múltiples revisiones de expertos. Diseñado específicamente para productos de IA comerciales de caja negra, EMM opera de forma independiente sin requerir acceso a componentes internos de IA o salidas intermedias, al tiempo que proporciona mediciones de confianza sólidas. Utilizando la detección de hemorragia intracraneal como nuestro caso de prueba en un conjunto de datos grande y diverso de 2919 estudios, demostramos que EMM clasifica con éxito la confianza en la predicción generada por IA, sugiriendo diferentes acciones y ayudando a mejorar el rendimiento general de las herramientas de IA para reducir la carga cognitiva. Es importante destacar que proporcionamos consideraciones técnicas clave y las mejores prácticas para traducir con éxito EMM a entornos clínicos.
Publicado Originalme en rss.arxiv.org El 19 de mayo de 2025.
Ver Fuente Original