An experimental multimodal system, designed for polysensory diagnosis and stimulation of persons with impaired communication skills or even non-communicative subjects is presented. The user interface includes an eye tracking device and the EEG monitoring of the subject. Furthermore, the system consists of a device for objective hearing testing and an autostereoscopic projection system designed to stimulate subjects through their immersion in a virtual environment. Data analysis methods are described, and experiments associated with classification of mental states during listening exercises as well as audio-visual stimuli are presented and discussed. Feature extraction was based on discrete wavelet transformation and clustering employing the k-means algorithm was designed. All algorithms were implemented in the Python programming language with the use of Open Source libraries. Tests of the proposed system were performed in a Special School and Educational Center in Koś-cierzyna, Poland. Results and comparison with data gathered from the control group of healthy people are presented and discussed.
Autorzy
- dr inż. Adam Kurowski link otwiera się w nowej karcie ,
- dr inż. Piotr Odya link otwiera się w nowej karcie ,
- dr hab. inż. Piotr Szczuko link otwiera się w nowej karcie ,
- dr inż. Michał Lech link otwiera się w nowej karcie ,
- mgr inż. Paweł Spaleniak link otwiera się w nowej karcie ,
- prof. dr hab. inż. Bożena Kostek link otwiera się w nowej karcie ,
- prof. dr hab. inż. Andrzej Czyżewski link otwiera się w nowej karcie
Informacje dodatkowe
- DOI
- Cyfrowy identyfikator dokumentu elektronicznego link otwiera się w nowej karcie 10.1007/978-3-319-60438-1_5
- Kategoria
- Aktywność konferencyjna
- Typ
- materiały konferencyjne indeksowane w Web of Science
- Język
- angielski
- Rok wydania
- 2017