Hyppää sisältöön
    • Suomeksi
    • På svenska
    • In English
  • Suomeksi
  • In English
  • Kirjaudu
Näytä aineisto 
  •   Etusivu
  • LUTPub
  • Tieteelliset julkaisut
  • Näytä aineisto
  •   Etusivu
  • LUTPub
  • Tieteelliset julkaisut
  • Näytä aineisto
JavaScript is disabled for your browser. Some features of this site may not work without it.

Efficient Decoding of Affective States from Video-elicited EEG Signals: An Empirical Investigation

Latifzadeh, Kayhan; Gozalpour, Nima; Traver, V. Javier; Ruotsalo, Tuukka; Kawala- Sterniuk, Aleksandra; Leiva, Luis A. (2024-05-03)

Katso/Avaa
latifzadeh_et_al_efficient_decoding_aam.pdf (2.144Mb)
Lataukset: 


Post-print / Final draft

Latifzadeh, Kayhan
Gozalpour, Nima
Traver, V. Javier
Ruotsalo, Tuukka
Kawala- Sterniuk, Aleksandra
Leiva, Luis A.
03.05.2024

ACM Transactions on Multimedia Computing, Communications and Applications

Association for Computer Machinery

School of Engineering Science

Kaikki oikeudet pidätetään.
© 2024 Copyright held by the owner/author(s)
https://doi.org/10.1145/3663669
Näytä kaikki kuvailutiedot
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi-fe2024052737693

Tiivistelmä

Affect decoding through brain-computer interfacing (BCI) holds great potential to capture users’ feelings and emotional responses via non-invasive electroencephalogram (EEG) sensing. Yet, little research has been conducted to understand efficient decoding when users are exposed to dynamic audiovisual contents. In this regard, we study EEG-based affect decoding from videos in arousal and valence classification tasks, considering the impact of signal length, window size for feature extraction, and frequency bands. We train both classic Machine Learning models (SVMs and k-NNs) and modern Deep Learning models (FCNNs and GTNs). Our results show that: (1) affect can be effectively decoded using less than 1 minute of EEG signal; (2) temporal windows of 6 and 10 seconds provide the best classification performance for classic Machine Learning models but Deep Learning models benefit from much shorter windows of 2 seconds; and (3) any model trained on the Beta band alone achieves similar (sometimes better) performance than when trained on all frequency bands. Taken together, our results indicate that affect decoding can work in more realistic conditions than currently assumed, thus becoming a viable technology for creating better interfaces and user models.

Lähdeviite

Kayhan Latifzadeh, Nima Gozalpour, V. Javier Traver, Tuukka Ruotsalo, Aleksandra Kawala-Sterniuk, and Luis A Leiva. 2024. Efficient Decoding of Affective States from Video-elicited EEG Signals: An Empirical Investigation. ACM Trans. Multimedia Comput. Commun. Appl. Just Accepted (May 2024). https://doi.org/10.1145/3663669

Alkuperäinen verkko-osoite

https://dl.acm.org/doi/10.1145/3663669
Kokoelmat
  • Tieteelliset julkaisut [1707]
LUT-yliopisto
PL 20
53851 Lappeenranta
Ota yhteyttä | Tietosuoja | Saavutettavuusseloste
 

 

Tämä kokoelma

JulkaisuajatTekijätNimekkeetKoulutusohjelmaAvainsanatSyöttöajatYhteisöt ja kokoelmat

Omat tiedot

Kirjaudu sisäänRekisteröidy
LUT-yliopisto
PL 20
53851 Lappeenranta
Ota yhteyttä | Tietosuoja | Saavutettavuusseloste