En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="2"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->Hacia una decodificación sólida de la intención basada en EEG durante el habla mal articulada en la afasia

Hacia una decodificación sólida de la intención basada en EEG durante el habla mal articulada en la afasia

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: La afasia limita gravemente la comunicación verbal debido a una alteración de la producción del lenguaje, lo que a menudo conduce a frecuentes errores de articulación durante los intentos de habla. A pesar del creciente interés en las tecnologías de interfaz cerebro-computadora, se ha prestado relativamente poca atención al desarrollo de sistemas de soporte de comunicación basados ​​en EEG diseñados para pacientes afásicos. Para abordar esta brecha, reclutamos a un solo participante con afasia expresiva y realizamos una tarea de habla automática basada en coreano. Las señales de EEG se registraron durante la realización de la tarea y cada prueba se etiquetó como correcta o incorrecta dependiendo de si la palabra prevista se pronunció con éxito. El análisis espectral reveló distintos patrones de activación neuronal entre los dos tipos de ensayos: los ensayos mal articulados exhibieron una potencia delta excesiva en canales generalizados y una mayor actividad theta-alfa en las regiones frontales. Sobre la base de estos hallazgos, desarrollamos un marco de aprendizaje multitarea suave con regularización de discrepancia media máxima que se centra en características delta para optimizar conjuntamente la discriminación de clases mientras alineamos las distribuciones de características de EEG de ensayos correctos y mal articulados. El modelo propuesto logró una precisión del 58,6 % en ensayos correctos y un 45,5 % en ensayos mal articulados, superando la línea de base en más del 45 % en este último, demostrando una sólida decodificación de intenciones incluso con errores de articulación. Estos resultados resaltan la viabilidad de los sistemas de asistencia basados ​​en EEG capaces de soportar condiciones de habla imperfectas del mundo real en pacientes con afasia.

Publicado originalmente en export.arxiv.org el 11 de noviembre de 2025.
Ver fuente original

admin

Usuario de administración del sitio web