Citation link: http://dx.doi.org/10.25819/ubsi/10111
Files in This Item:
File Description SizeFormat
Dietz Romero_Mengel_Czekansky_semantic segmentation.pdf521.01 kBAdobe PDFThumbnail
View/Open
Dokument Type: Other
metadata.dc.title: Synthesising large, low cost and diverse datasets for robust semantic segmentation in self-driving tasks
Authors: Dietz Romero, Pau 
Mengel, Merlin David 
Czekansky, Jakob 
Institute: Department Physik 
Free keywords: Computer vision, Supervised learning, Semantic segmentation, Autonomous driving, Robotics, Semantische Segmentierung
Dewey Decimal Classification: 004 Informatik
GHBS-Clases: TVVC
TVUC
ZQS
Issue Date: 2022
Publish Date: 2022
Abstract: 
Robust scene understanding algorithms are essential for the success of autonomous navigation. Unfortunately the supervised learning of semantic segmentation requires large and diverse datasets. For certain self-driving tasks like navigating a robot inside an industrial facility no datasets are freely available and the manual annotation of large datasets is impracticable for smaller development teams. Although approaches exist to automatically generate synthetic data, they are either too computational expensive, demand a huge preparation effort or miss a large variety of features. This paper presents a novel framework to generate synthetic datasets with great variance for low computing demand that are easily adaptable to different self-driving tasks (Available at https://github.com/cITIcar/SAD-Generator). As demonstration this approach was applied to a semantic segmentation task on a miniature road with random obstacles, lane markings and disturbing artefacts. Training thus synthesized data in a U-Net and and later fine-tuning it with a small amount of manually annotated data, improved pixel accuracy (PA) by 2.5 percentage points and mean intersection over union (mIoU) by 11.19 percentage points.

Robuste Algorithmen zum Verständnis von Umgebungen sind für den Erfolg der autonomen Navigation unerlässlich. Leider erfordern neuronale Netze für die semantische Segmentierung große und vielfältige Datensätze. Für bestimmte Aufgaben des autonomen Fahrens, wie der Navigation eines Roboters in einer Industrieanlage, sind keine Datensätze frei verfügbar, und die manuelle Annotation großer Datensätze ist für kleinere Entwicklerteams unpraktikabel. Es gibt zwar Ansätze zur automatischen Generierung synthetischer Daten, aber diese sind entweder zu rechenintensiv, erfordern einen hohen Vorbereitungsaufwand oder lassen eine Vielzahl von Merkmalen außer Acht. In diesem Artikel wird ein neuartiges Verfahren vorgestellt, mit dem synthetische Datensätze mit großer Varianz bei geringem Rechenaufwand erzeugt werden können, die sich leicht an verschiedene Aufgaben des selbstfahrenden Autos anpassen lassen (verfügbar unter https://github.com/cITIcar/SAD-Generator). Zur Demonstration wurde dieser Ansatz mit einer semantische Segmentierungsaufgabe auf einer Miniaturstraße mit zufälligen Hindernissen, Fahrbahnmarkierungen und störenden Artefakten getestet. Ein sogenanntes U-Net wurde mit den so generierten Daten trainiert und später mit einer kleinen Menge manuell etikettierten Daten feinjustiert. Die Pixelgenauigkeit stieg mithilfe der synthetischen Daten um 2,5 Prozentpunkte und die mittlere Intersection over Union um 11,19 Prozentpunkte.
Description: 
The captions of figures 7 and 9 do not match the figures and have been revised in the 2nd edition.

2nd revised edition:
https://doi.org/10.25819/ubsi/10510

This article presents a framework to artificially generate computer vision datasets with great variance for low computing demand that is easily adaptable to different semantic segmentation tasks.

The source code for this article is available on Github (https://github.com/cITIcar/SAD-Generator).
DOI: http://dx.doi.org/10.25819/ubsi/10111
URN: urn:nbn:de:hbz:467-22008
URI: https://dspace.ub.uni-siegen.de/handle/ubsi/2200
License: http://creativecommons.org/licenses/by/4.0/
Appears in Collections:Publikationen aus der Universität Siegen

This item is protected by original copyright

Show full item record

Page view(s)

275
checked on Apr 19, 2024

Download(s)

109
checked on Apr 19, 2024

Google ScholarTM

Check

Altmetric


This item is licensed under a Creative Commons License Creative Commons