Citation link:
http://dx.doi.org/10.25819/ubsi/10647
DC Field | Value | Language |
---|---|---|
dc.contributor.author | Cinar, Beyza | - |
dc.date | 2022 | de |
dc.date.accessioned | 2025-03-03T11:10:16Z | - |
dc.date.available | 2025-03-03T11:10:16Z | - |
dc.description.abstract | Die automatische Erkennung von Emotionen mit Hilfe biologischer Signale ist ein sehr vielversprechendes Forschungsgebiet in den Gesundheitswissenschaften. Vor allem die fortschreitende Entwicklung von Wearables und Cloud-Computing ermöglicht eine kontinuierliche Erfassung der Daten und die Erkennung der Emotionen, welche helfen frühzeitige Diagnosen von psychologischen Erkrankungen wie Depression festzustellen. Ebenfalls können Therapiemethoden entsprechend dem psychologischen Wohlbefinden individuell angepasst/gestaltet werden. Gängige Sensordaten hierbei sind der Blutvolumenpuls, die Herzrate, die Herzraten-Varibilität, die Hautleitfähigkeit und die Hauttemperatur. Nach einer Filterung und (statistischen) Merkmalsextraktionen der Signale werden öfteres maschinelle Lernverfahren zur Klassifizierung benutzt (Support Vector Machines, K-Nearest-Neighbor, Random-Forest...). Neuerdings gibt es auch Forschungen für Deep-Learning Methoden wie Convolutional-Neural-Networks. Für die Emotionsklassifizierung gibt es zwei konkrete Emotionenmodelle, das diskrete, in welchem vorbestimmte Emotionen analysiert und das dimensionale, in welchem Emotionen als Kombination (Vektoren) aus mehreren Komponenten (Dimensionen) dargestellt werden. Hierbei ist das zwei dimensionale Model am gängigsten, in welchem eine Achse die Intensität und die andere die Polung der Emotion darstellt. In dieser Arbeit wurde mittels bereits durchgeführter Studien, welche das zwei dimensionale Model benutzt haben, unter Betrachtung der verfügbaren Sensoren analysiert, ob Wearables eine gute Basis für die Ermittlung von Emotionen darbieten. Die Analyse zeigt, dass Wearables vielversprechend sind und genaue Ergebnisse liefern können, jedoch müssen Daten sehr gut für die Klassifizierungsmethode vorbereitet werden. Zudem ist eine große Datenmenge und homogen verteilte Gruppe an Probanden notwendig. Es wird festgestellt, dass die Genauigkeit stark von den Probanden abhängt und Emotionen sehr subjektiv bewertet werden. Des weiteren scheint das vorgestellte zwei-dimensional Model nicht ausreichend zu sein und es wird eine Erweiterung vorgeschlagen, um bessere Grenzen zwischen ähnlichen Emotionen zu ziehen. Letztlich kann durch den Vergleich verschiedener Arbeiten angenommen werden, dass es nicht das genau Richtige oder die Beste Klassifizierungsmethode/Algorithmus gibt und für jede Datenmenge die beste Methode “erkundet” werden sollte. | de |
dc.description.abstract | Automatic emotion recognition through physiological parameters is a promising research field in the health sciences. In particular, advancements in wearable technology and cloud computing enable continuous data collection and emotion recognition, which can aid in the early diagnosis of psychological disorders such as depression. Additionally, therapy methods can be customized/designed according to psychological well-being. Commonly used sensor data include blood volume pulse, heart rate, heart rate variability, skin conductance and skin temperature. After data filtering and (statistical) feature extraction, machine learning methods are often used for classification (Support Vector Machines, K-Nearest-Neighbor, Random-Forest...). Recently, there has also been research into deep learning methods such as convolutional neural networks. There are two specific emotion models for emotion classification, the discrete model, in which predefined emotions are analyzed and the dimensional model, in which emotions are described as a combination (vectors) of several components (dimensions). The two-dimensional model is the most common, in which one axis represents the intensity and the other represents the polarity of the emotion. This study investigates whether wearables provide a good basis for emotion recognition using the two-dimensional model. The analysis shows that wearables are promising and can provide accurate results, but data must be well prepared for the classification method. In addition, a large datasets and a homogeneously distributed group of test subjects is necessary. The accuracy heavily depends on the test subjects and emotions are very subjective. Furthermore, the presented two-dimensional model is not sufficient and an extension is proposed to differentiate between similar emotions. Finally, by comparing different works, it can be assumed that there is no single best classification method/algorithm and that the best method should be “explored” for each data set. | en |
dc.identifier.doi | http://dx.doi.org/10.25819/ubsi/10647 | - |
dc.identifier.uri | https://dspace.ub.uni-siegen.de/handle/ubsi/2883 | - |
dc.identifier.urn | urn:nbn:de:hbz:467-28837 | - |
dc.language.iso | de | de |
dc.subject.ddc | 004 Informatik | de |
dc.subject.other | Emotion Recognition | en |
dc.subject.other | Classification | en |
dc.subject.other | Neural Networks | en |
dc.subject.other | Machine Learning | en |
dc.subject.other | Emotionserkennung | de |
dc.subject.other | Klassifizierung | de |
dc.subject.other | Neuronale Netze | de |
dc.subject.other | Maschinelles Lernen | de |
dc.title | Analyse von Methoden zur Emotionserkennung mit Wearables | de |
dc.title.alternative | An Analysis of Methods for Emotion Recognition via Wearables | en |
dc.type | Bachelor Thesis | de |
item.fulltext | With Fulltext | - |
ubsi.contributor.referee | Maleshkova, Maria | - |
ubsi.organisation.granting | Universität Siegen | - |
ubsi.origin.dspace5 | 1 | - |
ubsi.publication.affiliation | Fakultät V - Lebenswissenschaftliche Fakultät | de |
ubsi.subject.ghbs | TVUC | de |
ubsi.subject.ghbs | TVVA | de |
ubsi.subject.ghbs | HRN | de |
Appears in Collections: | Hochschulschriften |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Bachelorarbeit_Cinar_Beyza.pdf | 8.44 MB | Adobe PDF | ![]() View/Open |
This item is protected by original copyright |
Page view(s)
36
checked on Mar 6, 2025
Download(s)
6
checked on Mar 6, 2025
Google ScholarTM
Check
Altmetric
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.