Resumen: La afasia limita gravemente la comunicación verbal debido a una alteración de la producción del lenguaje, lo que a menudo conduce a frecuentes errores de articulación durante los intentos de habla. A pesar del creciente interés en las tecnologías de interfaz cerebro-computadora, se ha prestado relativamente poca atención al desarrollo de sistemas de soporte de comunicación basados en EEG diseñados para pacientes afásicos. Para abordar esta brecha, reclutamos a un solo participante con afasia expresiva y realizamos una tarea de habla automática basada en coreano. Las señales de EEG se registraron durante la realización de la tarea y cada prueba se etiquetó como correcta o incorrecta dependiendo de si la palabra prevista se pronunció con éxito. El análisis espectral reveló distintos patrones de activación neuronal entre los dos tipos de ensayos: los ensayos mal articulados exhibieron una potencia delta excesiva en canales generalizados y una mayor actividad theta-alfa en las regiones frontales. Sobre la base de estos hallazgos, desarrollamos un marco de aprendizaje multitarea suave con regularización de discrepancia media máxima que se centra en características delta para optimizar conjuntamente la discriminación de clases mientras alineamos las distribuciones de características de EEG de ensayos correctos y mal articulados. El modelo propuesto logró una precisión del 58,6 % en ensayos correctos y un 45,5 % en ensayos mal articulados, superando la línea de base en más del 45 % en este último, demostrando una sólida decodificación de intenciones incluso con errores de articulación. Estos resultados resaltan la viabilidad de los sistemas de asistencia basados en EEG capaces de soportar condiciones de habla imperfectas del mundo real en pacientes con afasia.
Publicado originalmente en export.arxiv.org el 11 de noviembre de 2025.
Ver fuente original
