Zitierlink:
http://dx.doi.org/10.25819/ubsi/10111
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
Dietz Romero_Mengel_Czekansky_semantic segmentation.pdf | 521.01 kB | Adobe PDF | Öffnen/Anzeigen |
Dokumentart: | Other | Titel: | Synthesising large, low cost and diverse datasets for robust semantic segmentation in self-driving tasks | AutorInn(en): | Dietz Romero, Pau Mengel, Merlin David Czekansky, Jakob |
Institut: | Department Physik | Schlagwörter: | Computer vision, Supervised learning, Semantic segmentation, Autonomous driving, Robotics, Semantische Segmentierung | DDC-Sachgruppe: | 004 Informatik | GHBS-Notation: | TVVC TVUC ZQS |
Erscheinungsjahr: | 2022 | Publikationsjahr: | 2022 | Zusammenfassung: | Robust scene understanding algorithms are essential for the success of autonomous navigation. Unfortunately the supervised learning of semantic segmentation requires large and diverse datasets. For certain self-driving tasks like navigating a robot inside an industrial facility no datasets are freely available and the manual annotation of large datasets is impracticable for smaller development teams. Although approaches exist to automatically generate synthetic data, they are either too computational expensive, demand a huge preparation effort or miss a large variety of features. This paper presents a novel framework to generate synthetic datasets with great variance for low computing demand that are easily adaptable to different self-driving tasks (Available at https://github.com/cITIcar/SAD-Generator). As demonstration this approach was applied to a semantic segmentation task on a miniature road with random obstacles, lane markings and disturbing artefacts. Training thus synthesized data in a U-Net and and later fine-tuning it with a small amount of manually annotated data, improved pixel accuracy (PA) by 2.5 percentage points and mean intersection over union (mIoU) by 11.19 percentage points. Robuste Algorithmen zum Verständnis von Umgebungen sind für den Erfolg der autonomen Navigation unerlässlich. Leider erfordern neuronale Netze für die semantische Segmentierung große und vielfältige Datensätze. Für bestimmte Aufgaben des autonomen Fahrens, wie der Navigation eines Roboters in einer Industrieanlage, sind keine Datensätze frei verfügbar, und die manuelle Annotation großer Datensätze ist für kleinere Entwicklerteams unpraktikabel. Es gibt zwar Ansätze zur automatischen Generierung synthetischer Daten, aber diese sind entweder zu rechenintensiv, erfordern einen hohen Vorbereitungsaufwand oder lassen eine Vielzahl von Merkmalen außer Acht. In diesem Artikel wird ein neuartiges Verfahren vorgestellt, mit dem synthetische Datensätze mit großer Varianz bei geringem Rechenaufwand erzeugt werden können, die sich leicht an verschiedene Aufgaben des selbstfahrenden Autos anpassen lassen (verfügbar unter https://github.com/cITIcar/SAD-Generator). Zur Demonstration wurde dieser Ansatz mit einer semantische Segmentierungsaufgabe auf einer Miniaturstraße mit zufälligen Hindernissen, Fahrbahnmarkierungen und störenden Artefakten getestet. Ein sogenanntes U-Net wurde mit den so generierten Daten trainiert und später mit einer kleinen Menge manuell etikettierten Daten feinjustiert. Die Pixelgenauigkeit stieg mithilfe der synthetischen Daten um 2,5 Prozentpunkte und die mittlere Intersection over Union um 11,19 Prozentpunkte. |
Beschreibung: | The captions of figures 7 and 9 do not match the figures and have been revised in the 2nd edition. 2nd revised edition: https://doi.org/10.25819/ubsi/10510 This article presents a framework to artificially generate computer vision datasets with great variance for low computing demand that is easily adaptable to different semantic segmentation tasks. The source code for this article is available on Github (https://github.com/cITIcar/SAD-Generator). |
DOI: | http://dx.doi.org/10.25819/ubsi/10111 | URN: | urn:nbn:de:hbz:467-22008 | URI: | https://dspace.ub.uni-siegen.de/handle/ubsi/2200 | Lizenz: | http://creativecommons.org/licenses/by/4.0/ |
Enthalten in den Sammlungen: | Publikationen aus der Universität Siegen |
Diese Ressource ist urheberrechtlich geschützt. |
Seitenansichten
378
checked on 21.11.2024
Download(s)
126
checked on 21.11.2024
Google ScholarTM
Prüfe
Prüfe
Diese Ressource wurde unter folgender Copyright-Bestimmung veröffentlicht: Lizenz von Creative Commons