Resumen: El reconocimiento automático de emociones se ha vuelto cada vez más importante con el aumento de la IA, especialmente en campos como la atención médica, la educación y los sistemas automotrices. Sin embargo, hay una falta de conjuntos de datos multimodales, particularmente que involucran movimiento corporal y señales fisiológicas, lo que limita el progreso en el campo. Para abordar esto, se introduce el conjunto de datos MVRS, con grabaciones sincronizadas de 13 participantes de 12 a 60 años expuestos a estímulos emocionales basados en VR (relajación, miedo, estrés, tristeza, alegría). Los datos se recopilaron utilizando el seguimiento ocular (a través de la cámara web en un auricular VR), el movimiento del cuerpo (Kinect V2) y las señales EMG y GSR (Arduino Uno), todas las marcas de tiempo alineadas. Los participantes siguieron un protocolo unificado con consentimiento y cuestionarios. Las características de cada modalidad se extrajeron, se fusionaron utilizando técnicas de fusión temprana y tardía, y se evaluaron con clasificadores para confirmar la calidad de los conjuntos de datos y la separabilidad de las emociones, lo que hace que los MVR sean una valiosa contribución a la computación afectiva multimodal.
Publicado Originalme en export.arxiv.org El 8 de septiembre de 2025.
Ver Fuente Original