Resumen: La aplicación de IA en oncología ha estado limitada por su dependencia de conjuntos de datos grandes y anotados y la necesidad de capacitar modelos para tareas de diagnóstico específicas de dominio. Prestamos atención a estas limitaciones, investigamos el aprendizaje en contexto como una alternativa pragmática a la reentrabinización de modelos al permitir que los modelos se adapten a nuevas tareas de diagnóstico utilizando solo unos pocos ejemplos etiquetados con inferencia, sin la necesidad de reentrenamiento. Utilizando cuatro modelos de lenguaje de visión (VLMS) -Paligemma, Clip, Aline y GPT-4O, evaluamos el rendimiento en tres conjuntos de datos de oncología: MHIST, PatchCamelyon y Ham10000. Hasta donde sabemos, este es el primer estudio para comparar el rendimiento de múltiples VLM en diferentes tareas de clasificación de oncología. Sin ninguna actualización de parámetros, todos los modelos mostraron ganancias significativas con pocos disparos de disparo, con GPT-4O alcanzando una puntuación F1 de 0.81 en clasificación binaria y 0.60 en configuraciones de clasificación de clase múltiple. Si bien estos resultados permanecen por debajo del techo de los sistemas completamente ajustados, resaltan el potencial de ICL para aproximar el comportamiento específico de la tarea utilizando solo un puñado de ejemplos, lo que refleja cómo los médicos a menudo razonan de casos anteriores. En particular, los modelos de código abierto como Paligemma y Clip demostraron ganancias competitivas a pesar de su tamaño más pequeño, lo que sugiere una viabilidad para la implementación en entornos clínicos limitados. En general, estos hallazgos resaltan el potencial de la ICL como una solución práctica en oncología, particularmente para cánceres raros y contextos limitados por recursos donde el ajuste fino es infalible y los datos anotados son difíciles de obtener.
Publicado Originalme en rss.arxiv.org El 14 de mayo de 2025.
Ver Fuente Original