Resumen:Si bien los modelos de lenguaje grandes demuestran un inmenso potencial como agentes médicos proactivos, su implementación en el mundo real se ve gravemente obstaculizada por la escasez de datos bajo restricciones de privacidad. Para superar esto, proponemos la Memoria de habilidades lógicas mejorada por el estado (SELSM), un marco sin entrenamiento que destila trayectorias clínicas simuladas en reglas operativas independientes de la entidad dentro de un espacio de habilidades abstracto. Durante la inferencia, un mecanismo de recuperación en dos etapas anclado a consultas recupera dinámicamente estos antecedentes lógicos independientes de la entidad para guiar el razonamiento paso a paso del agente, resolviendo efectivamente el problema de la polisemia de estados. Evaluado en MedAgentBench, el único entorno de pruebas de EHR virtual autorizado de alta fidelidad comparado con datos clínicos reales, SELSM eleva sustancialmente las capacidades de disparo cero de los modelos de base implementables localmente (parámetros 30B–32B). En particular, en la columna vertebral Qwen3-30B-A3B, nuestro marco elimina por completo las interrupciones de la cadena de tareas para lograr una tasa de finalización del 100%, aumentando la tasa de éxito general en un absoluto 22,67% y superando significativamente las bases de datos existentes con memoria aumentada. Este estudio demuestra que equipar modelos con un andamio cognitivo mejorado por el estado y actualizable dinámicamente es una vía computacionalmente eficiente y que preserva la privacidad para la adaptación local de los agentes de IA a los sistemas de información clínica. Si bien actualmente está validado en interacciones EHR basadas en FHIR como paso inicial, el diseño independiente de la entidad de SELSM proporciona una base de principios hacia una implementación clínica más amplia.
Publicado originalmente en export.arxiv.org el 9 de marzo de 2026.
Ver fuente original
