Please use this identifier to cite or link to this item: https://nbn-resolving.org/urn:nbn:de:hbz:467-13972
DC FieldValueLanguage
dc.contributor.authorLefloch, Damien-
dc.date.accessioned2019-09-02T10:05:48Z-
dc.date.available2019-01-24T12:12:12Z-
dc.date.available2019-09-02T10:05:48Z-
dc.date.issued2017-
dc.description.abstractDurch die Verfügbarkeit von kostengünstigen Nahfeldsensoren, die 3D daten der aufgenommenen Szene in Echtzeit erstellen, entstehen neue Anwendungen im Bereich Computer Vision. Diese Anwendungen reichen von der Erstellung neuer Mensch-Maschine-Schnittstellen (bekannt als Natural User Interfaces) über die Erstellung von sehr detaillierten Rekonstruktionen komplexer Szenen (z.B. in der Spuren an Tatorten oder Kulturstätten) bis hin zu Autonomem Fahren und Erweiterter Realität. Diese Tiefensensoren basieren hauptsächlich auf zwei effizienten Technologien, dem: Structured- Light (SL) Prinzip (wie in der Xbox 360 Kinect Kamera) and Time-of-Flight (ToF) Prinzip (wie Kameras der Firma pmdtechnologies). Während ToF-Kameras die Zeit zwischen Lichtemission der Beleuchtungseinheit und Empfang der Rückstreuung auf dem ”smart detectors” messen, projizieren SL Kameras ein bekanntes Lichtmuster in die Szene und messen die Verzerrung zwischen ausgesendetem Muster und dem resultierenden Bild. Beide Technologien haben ihre Vor- und Nachteile. Diese Dissertation besteht aus vier Beiträgen. Wir schlagen einen effizienten Ansatz vor, um Bewegungsartefakte von ToF-Rohbildern zu kompensieren. Danach arbeiten wir an 3DRekonstruktionsanwendungen und verbessern die Robustheit des Kameratrackings durch die Segmentierung von bewegten Objekten. Der zweite Beitrag liegt in der robusten Handhabung von Rauschen in den Rohdaten über die ganze Verarbeitungskette der Rekonstruktion. Hier wird eine neue Art der Informationsfusion verwendet, welche die anisotropischen Eigenschaften von Rauschen in den Tiefendaten berücksichtigt und damit eine schnellere Konvergenz für hochqualitative Rekonstruktionen erzielt. Abschließend wird eine Methode entworfen welche die Information über die Oberflächenkrümmung verwendet um auch feine Strukturen von kleinen Objekten robust zu rekonstruieren. Zusätzlich wird der Gesamtfehler des Kameradrifts eingeschränkt.de
dc.description.abstractWith the availability of affordable range imaging sensors, providing real-time three-dimensional information of the captured scene, new types of Computer Vision applications arise. Such applications range from designing new Human-Computer interfaces (known as Natural User Interfaces) to the generation of highly detailed reconstructions of complex scenes (for example to keep track of cultural heritage or crime scenes), to autonomous driving and augmented reality. These depth sensors are mostly based on two efficient technologies: the structured-light principle (such as the Xbox 360 version of the Kinect camera) and the time-of-flight (ToF) principle (as cameras implemented by pmdtechonologies). When ToF cameras measure the time until the light emitted by their illumination unit is backscattered to their smart detectors, the structured-light cameras project a known light pattern onto the scene and measure the amount of distortion between the emitted light pattern and its image. Both technologies have their own advantages and weak points. This dissertation is composed of 4 contributions. First, an efficient approach is proposed to compensate motion artifact of ToF raw images. Thereafter, a work on online three-dimensional reconstruction application has been investigated to improve the robustness of the camera tracker by segmenting moving objects. The second major contribution lies on a robust handling of noise on raw data, during the full reconstruction pipeline, proposing a new type of information fusion which considered the anisotropic nature of noise present on depth data, leading to faster convergence of high-quality reconstructions. Finally, a new method has been designed which uses surface curvature information to robustly reconstruct fine structures of small objects, as well as limiting the total error of camera drift.en
dc.identifier.urihttps://dspace.ub.uni-siegen.de/handle/ubsi/1397-
dc.identifier.urnurn:nbn:de:hbz:467-13972-
dc.language.isoenen
dc.rights.urihttps://dspace.ub.uni-siegen.de/static/license.txtde
dc.subject.ddc004 Informatikde
dc.subject.otherReal-Timeen
dc.subject.otherRange Dataen
dc.subject.otherReconstruction ,Time-of-Flighten
dc.subject.other3Den
dc.subject.swbToF-Kamerade
dc.subject.swb3D-Scannerde
dc.subject.swbMaschinelles Sehende
dc.subject.swbDreidimensionale Rekonstruktionde
dc.titleReal-time processing of range data focusing on environment reconstructionen
dc.typeDoctoral Thesisde
item.fulltextWith Fulltext-
ubsi.date.accepted2018-01-26-
ubsi.publication.affiliationFakultät IV - Naturwissenschaftlich-Technische Fakultätde
ubsi.subject.ghbsTUH-
ubsi.subject.ghbsTVVC-
ubsi.type.versionpublishedVersionde
Appears in Collections:Hochschulschriften
Files in This Item:
File Description SizeFormat
Dissertation_Damien_Lefloch.pdf38,7 MBAdobe PDFThumbnail
View/Open

This item is protected by original copyright

Show simple item record

Page view(s)

214
checked on Feb 25, 2021

Download(s)

135
checked on Feb 25, 2021

Google ScholarTM

Check


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.