Zitierlink:
http://dx.doi.org/10.25819/ubsi/10510
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
Dietz_Romero_Mengel_Czekansky_Synthesising_2nd_edition.pdf | 529.3 kB | Adobe PDF | Öffnen/Anzeigen |
Dokumentart: | Other | Titel: | Synthesising large, low cost and diverse datasets for robust semantic segmentation in self-driving tasks | AutorInn(en): | Dietz Romero, Pau Mengel, Merlin David Czekansky, Jakob |
Institut: | Department Physik | Schlagwörter: | Computer vision, Supervised learning, Semantic segmentation, Autonomous driving, Robotics, Semantische Segmentierung, Maschinelles Sehen, Überwachtes Lernen, Autonomes Fahrzeug | DDC-Sachgruppe: | 004 Informatik | GHBS-Notation: | TVVC TVUC ZQS |
Erscheinungsjahr: | 2022 | Publikationsjahr: | 2024 | Zusammenfassung: | Robust scene understanding algorithms are crucial for the success of autonomous navigation. The supervised learning of semantic segmentation unfortunately requires large and diverse datasets. For some self-driving tasks, such as navigating a robot within an industrial facility, freely available datasets are not available, and manual annotation of large datasets is impractical for smaller development teams. While there are approaches to automatically generate synthetic data, they can be computationally expensive, require significant preparation effort, or miss a wide variety of features. This paper presents a new framework for generating synthetic datasets with high variance for low computing demands that can be easily adapted to different self-driving tasks. The details of the framework can be found at https://github.com/cITIcar/SAD-Generator. As a demonstration, this approach was applied to a semantic segmentation task on a miniature road with random obstacles, lane markings, and disturbing artifacts. A U-Net was trained using synthesized data and later fine-tuned with a small amount of manually annotated data. This resulted in an improvement of 2.5 percentage points in pixel accuracy (PA) and 11.19 percentage points in mean intersection over union (mIoU). Robuste Algorithmen zum Verstehen von Situationen sind entscheidend für den Erfolg der autonomen Navigation. Das überwachte Lernen der semantischen Segmentierung erfordert leider große und vielfältige Datensätze. Für einige Aufgaben des autonomen Fahrens, wie z. B. die Navigation eines Roboters in einer Industrieanlage, sind frei verfügbare Datensätze nicht verfügbar, und die manuelle Beschriftung großer Datensätze ist für kleinere Entwicklungsteams unpraktisch. Es gibt zwar Ansätze zur automatischen Generierung synthetischer Daten, diese können jedoch rechenintensiv sein, einen erheblichen Vorbereitungsaufwand erfordern oder eine Vielzahl von Merkmalen auslassen. In diesem Artikel wird ein neuer Framework für die Generierung synthetischer Datensätze mit hoher Varianz bei geringem Rechenaufwand vorgestellt, der sich leicht an verschiedene Aufgaben des selbstfahrenden Autos anpassen lässt. Die Details des Frameworks können unter https://github.com/cITIcar/SAD-Generator gefunden werden. Zur Demonstration wurde dieser Ansatz auf eine semantische Segmentierungsaufgabe auf einer Modellstraße mit zufälligen Hindernissen, Fahrbahnmarkierungen und störenden Artefakten angewendet. Ein U-Net wurde mit synthetischen Daten trainiert und später mit einer kleinen Menge von manuell annotierten Daten feinabgestimmt. Dies führte zu einer Verbesserung von 2,5 Prozentpunkten bei der Pixelgenauigkeit (PA) und 11,19 Prozentpunkten bei der mittleren Schnittmenge über der Vereinigung (mIoU). |
Beschreibung: | This article presents a framework to artificially generate computer vision datasets with great variance for low computing demand that is easily adaptable to different semantic segmentation tasks. The source code for this article is available on Github (https://github.com/cITIcar/SAD-Generator). |
DOI: | http://dx.doi.org/10.25819/ubsi/10510 | URN: | urn:nbn:de:hbz:467-27231 | URI: | https://dspace.ub.uni-siegen.de/handle/ubsi/2723 | Lizenz: | http://creativecommons.org/licenses/by-nd/4.0/ |
Enthalten in den Sammlungen: | Publikationen aus der Universität Siegen |
Diese Ressource ist urheberrechtlich geschützt. |
Seitenansichten
211
checked on 23.11.2024
Download(s)
36
checked on 23.11.2024
Google ScholarTM
Prüfe
Prüfe
Diese Ressource wurde unter folgender Copyright-Bestimmung veröffentlicht: Lizenz von Creative Commons