En este momento estás viendo 
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Tiempo de lectura"></span> <span class="bsf-rt-display-time" reading_time="1"></span> <span class="bsf-rt-display-postfix" postfix="mins"></span></span><!-- .bsf-rt-reading-time -->MVRS: el conjunto de datos de reconocimiento de emociones de la realidad virtual multimodal basado en estímulos

MVRS: el conjunto de datos de reconocimiento de emociones de la realidad virtual multimodal basado en estímulos

  • Autor de la entrada:
  • Categoría de la entrada:Noticias externas

Resumen: El reconocimiento automático de emociones se ha vuelto cada vez más importante con el aumento de la IA, especialmente en campos como la atención médica, la educación y los sistemas automotrices. Sin embargo, hay una falta de conjuntos de datos multimodales, particularmente que involucran movimiento corporal y señales fisiológicas, lo que limita el progreso en el campo. Para abordar esto, se introduce el conjunto de datos MVRS, con grabaciones sincronizadas de 13 participantes de 12 a 60 años expuestos a estímulos emocionales basados ​​en VR (relajación, miedo, estrés, tristeza, alegría). Los datos se recopilaron utilizando el seguimiento ocular (a través de la cámara web en un auricular VR), el movimiento del cuerpo (Kinect V2) y las señales EMG y GSR (Arduino Uno), todas las marcas de tiempo alineadas. Los participantes siguieron un protocolo unificado con consentimiento y cuestionarios. Las características de cada modalidad se extrajeron, se fusionaron utilizando técnicas de fusión temprana y tardía, y se evaluaron con clasificadores para confirmar la calidad de los conjuntos de datos y la separabilidad de las emociones, lo que hace que los MVR sean una valiosa contribución a la computación afectiva multimodal.

Publicado Originalme en export.arxiv.org El 8 de septiembre de 2025.
Ver Fuente Original

admin

Usuario de administración del sitio web