Resumen: a pesar de la extensa investigación sobre la relación entre el sueño y la cognición, la conexión entre la microestructura del sueño y el rendimiento humano a través de dominios cognitivos específicos permanece subexplorada. Este estudio investiga si los modelos de aprendizaje profundo pueden predecir las funciones ejecutivas, particularmente la adaptabilidad cognitiva y el razonamiento conceptual de los procesos fisiológicos durante una noche de sueño. Para abordar esto, presentamos CogpsGformer, un modelo de transformador convolucional a múltiples escala diseñado para procesar datos polisomnográficos multimodales. Este modelo integra señales de ECG y EEG de un canal junto con características extraídas, incluidas las bandas de potencia EEG y los parámetros de variabilidad de la frecuencia cardíaca, para capturar información complementaria a través de las modalidades. Se realizó una evaluación exhaustiva de la arquitectura CogpsGformer para optimizar el procesamiento de señales de sueño extendidas e identificar la configuración más efectiva. El marco propuesto se evaluó en 817 individuos del conjunto de datos de etapas utilizando validación cruzada. El modelo alcanzó la precisión del 80.3 % al clasificar a los individuos en grupos de rendimiento cognitivo bajo frente a alto en datos invisibles basados en puntajes de prueba de exclusión condicional (PCET) PenN. Estos hallazgos resaltan la efectividad de nuestra extracción de características a múltiples escala y un enfoque de aprendizaje multimodal para aprovechar las señales derivadas del sueño para la predicción del rendimiento cognitivo. Para facilitar la reproducibilidad, nuestro código es de acceso público (esta URL HTTPS).
Publicado Originalme en rss.arxiv.org El 2 de junio de 2025.
Ver Fuente Original