Zitierlink:
http://dx.doi.org/10.25819/ubsi/4470
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
Dissertation_Philip_Schmidt.pdf | 6.34 MB | Adobe PDF | Öffnen/Anzeigen |
Dokumentart: | Doctoral Thesis | Titel: | Wearable-based affect recognition | Sonstiger Titel: | Emotionserkennung basierend auf tragbarer Sensorik | AutorInn(en): | Schmidt, Philip | Institut: | Department Elektrotechnik - Informatik Fakultät IV - Naturwissenschaftlich-Technische Fakultät |
Schlagwörter: | Affect Recognition, Wearables, User Study | DDC-Sachgruppe: | 004 Informatik | GHBS-Notation: | TZI TUH WFCD |
Erscheinungsjahr: | 2019 | Publikationsjahr: | 2020 | Zusammenfassung: | Der technologische Fortschritt im Bereich tragbarer Sensorik ermöglicht die minimalinvasive Erfassung von Nutzerdaten wie beispielsweise zurückgelegte Schritte oder verbrauchte Kalorien. Zudem ist die neueste Generation Smartwatches in der Lage, basierend auf physiologischen Daten affektive Zustände der Nutzer zu schätzen. Im Rahmen dieser Arbeit wurden physiologische und Bewegungsdaten mithilfe tragbarer Sensorik aufgenommen. Diese wurden zur Erkennung affektiver Zustände (z.B. Stress) verwendet. Die geleisteten Beiträge sind die folgenden: Der aktuelle Stand der Forschung im Bereich der Emotionserkennung basierend auf tragbarer Sensorik wurde umfassend dargestellt. Dabei zeigte sich ein Mangel an öffentlich verfügbaren und multimodalen Datensätzen. Diese Lücke wurde durch die Aufzeichnung und Publikation eines Laborstudiendatensatzes (WESAD) geschlossen. Des Weiteren wurden im Rahmen einer Feldstudie physiologische, Bewegungs- sowie affektive Daten von 11 Versuchspersonen aufgezeichnet. Im Vorfeld dieser Feldstudie wurden Empfehlungen für Smartphone-basierte Fragebogen-Apps entwickelt und diese wurden anhand der gesammelten Einblicke überprüft. Zudem wurden die Klassifizierungsraten von feature-basierten Klassifikatoren sowie aktuellsten Convolutional Neural Networks untersucht. Dabei zeigte sich, dass die Erkennung affektiver Zustände im Feld auf unterschiedlichen Skalen nur eingeschränkt möglich ist (über Skalen gemittelter F1 Score: ~ 45%). Daher wurden Fallstricke für Emotionserkennung basierend auf tragbarer Sensorik diskutiert und Auswirkungen für die weitere Forschung dargelegt. Advances in wearable-based sensor technology like smartphones and watches allow to monitor users in a minimally intrusive way. At the point of writing, wearables are, for instance, used to count steps or estimate burned calories. Recently, a first generation of smartwatches entered the consumer market offering data driven insights into affective states. Over the course of this thesis physiological and motion data recorded using wearables have been employed to detect the affective state (e.g., stress or amusement) of users. The contributions made are threefold: First, a comprehensive literature review of the state-of-the art in wearable-based affect recognition was conducted. Second, concluding from this review a lack of publicly available multimodal datasets was identified. This gap was closed by recording, benchmarking, and publishing a lab study dataset for WEarable Stress and Affect Detection (WESAD). Third, a field study was conducted recording physiological and motion data as well as affective labels from 11 healthy subjects. Prior to the field study guidelines for smartphone-based labelling apps were formulated and they were evaluated using the field study data. Furthermore, data and labels acquired during the field study were used to train both feature-based and latest end-to-end trainable machine learning classifiers, detecting affective states on different scales. Both types of classifiers performed on par (averaged F1 score across scales: ~ 45%). Hence, potential pitfalls for wearable-based affect recognition were discussed in detail and implications for further research were provided. |
DOI: | http://dx.doi.org/10.25819/ubsi/4470 | URN: | urn:nbn:de:hbz:467-17007 | URI: | https://dspace.ub.uni-siegen.de/handle/ubsi/1700 |
Enthalten in den Sammlungen: | Hochschulschriften |
Diese Ressource ist urheberrechtlich geschützt. |
Seitenansichten
757
checked on 22.11.2024
Download(s)
621
checked on 22.11.2024
Google ScholarTM
Prüfe
Prüfe
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt, soweit nicht anderweitig angezeigt.