Resumen:La integración de herramientas de IA en aplicaciones médicas ha tenido como objetivo mejorar la eficiencia del diagnóstico. La aparición de grandes modelos de lenguaje (LLM), como ChatGPT y Claude, ha ampliado aún más esta integración. Debido a la versatilidad de LLM y la facilidad de uso a través de las API, estos modelos más grandes a menudo se utilizan aunque en su lugar se pueden usar modelos personalizados más pequeños. En este artículo, los LLM y pequeños modelos discriminativos se integran en una aplicación Mendix para detectar Covid-19 en radiografías de tórax. Estos modelos discriminativos también se utilizan para proporcionar bases de conocimiento para que los LLM mejoren la precisión. Esto proporciona un estudio de referencia de 14 configuraciones de modelos diferentes para comparar la precisión y el impacto ambiental. Los hallazgos indicaron que, si bien los modelos más pequeños reducían la huella de carbono de la aplicación, el resultado estaba sesgado hacia un diagnóstico positivo y las probabilidades de resultado carecían de confianza. Mientras tanto, restringir los LLM para que solo ofrecieran resultados probabilísticos provocó un rendimiento deficiente tanto en la precisión como en la huella de carbono, lo que demuestra el riesgo de utilizar los LLM como una solución universal de IA. Si bien el uso del LLM GPT-4.1-Nano más pequeño redujo la huella de carbono en un 94,2% en comparación con los modelos más grandes, esto aún era desproporcionado con respecto a los modelos discriminativos; la solución más eficiente fue el modelo Covid-Net. Aunque tenía una huella de carbono mayor que otros modelos pequeños, su huella de carbono fue un 99,9% menor que cuando se usaba GPT-4.5-Preview, al tiempo que logró una precisión del 95,5%, la más alta de todos los modelos examinados. Este artículo contribuye al conocimiento comparando modelos generativos y discriminativos en la detección de Covid-19, además de resaltar el riesgo ambiental del uso de herramientas generativas para tareas de clasificación.
Publicado originalmente en export.arxiv.org el 11 de noviembre de 2025.
Ver fuente original
