Resumen:Extraer información estructurada de notas clínicas requiere navegar por una densa red de variables interdependientes donde el valor de un atributo limita lógicamente a otros. Los canales de extracción existentes basados en modelos de lenguaje grande (LLM) a menudo tienen dificultades para capturar estas dependencias, lo que genera resultados clínicamente inconsistentes. Proponemos un razonamiento reflexivo profundo, un marco de agente de modelo de lenguaje grande que autocrítica y revisa iterativamente los resultados estructurados verificando la coherencia entre las variables, el texto de entrada y el conocimiento del dominio recuperado, deteniéndose cuando los resultados convergen. Evaluamos exhaustivamente el método propuesto en tres aplicaciones oncológicas diversas: (1) En los informes sinópticos del cáncer colorrectal a partir de descripciones generales (n = 217), el razonamiento reflexivo mejoró el F1 promedio en ocho variables sinópticas categóricas de 0,828 a 0,911 y aumentó la tasa media correcta en cuatro variables numéricas de 0,806 a 0,895; (2) En la identificación del patrón de inmunotinción CD99 del sarcoma de Ewing (n = 200), la precisión mejoró de 0,870 a 0,927; (3) En la estadificación del tumor de cáncer de pulmón (n=100), la precisión del estadio del tumor mejoró de 0,680 a 0,833 (pT: 0,842 -> 0,884; pN: 0,885 -> 0,948). Los resultados demuestran que el razonamiento reflexivo profundo puede mejorar sistemáticamente la confiabilidad de la extracción de datos estructurados basada en LLM bajo restricciones de interdependencia, permitiendo conjuntos de datos clínicos operables por máquinas más consistentes y facilitando el descubrimiento de conocimientos con aprendizaje automático y ciencia de datos hacia la salud digital.
Publicado originalmente en export.arxiv.org el 23 de marzo de 2026.
Ver fuente original
