Zitierlink: https://doi.org/10.25819/ubsi/10777
Efficient Very-wide-area Time-of-Flight 3D Imaging by means of Adaptive Compressive Sensing
Übersetzter Titel
Effiziente großflächige Time-of-Flight-3D-Bildgebung durch adaptive kompressive Abtastung
Literaturtyp
Doctoral Thesis
Autor/innen
Einrichtung(en)
Schlagwörter
Time-of-Flight-Kamera
Kompressive Abtastung
3D-Bildgebung
DDC-Sachgruppe
621.3 Elektrotechnik, Elektronik
Erscheinungsdatum
2025
Zusammenfassung
Seit den Anfängen der Wissenschaft ist das Verstehen, Erfassen und systematische Reproduzieren der uns umgebenden Realität sowohl ein Bestreben als auch eine technologische Herausforderung für Ingenieure und Forscher. In diesem Sinne haben sich die 3D-Bildgebungstechnologien in den letzten Jahrzehnten bemerkenswert weiterentwickelt, begünstigt durch die Steigerung der Rechenkapazitäten, die Entwicklung effizienterer Algorithmen und die Verringerung der Hardwareanforderungen. Heutzutage sind unsere Häuser, Büros und Straßen allgegenwärtig mit 3D-Bildgebungsgeräten ausgestattet. Dank dieser Geräte können wir den sicheren Zugang zu unseren Daten durch Gesichtserkennungssysteme gewährleisten, die Notwendigkeit menschlichen Ein-greifens bei Routine- oder unsicheren Aufgaben auf ein Minimum reduzieren, die Produktivität unserer Unternehmen verbessern, die Sicherheit unserer Reisen mit genaueren Navigationssystemen gewährleisten oder Realitäten abbilden, die uns zuvor unzugänglich waren.
In dieser Hinsicht ist die 3D-Flugzeitbildgebung in den letzten Jahren zu einem attraktiven und kontinuierlichen Schwerpunkt für Forscher, Praktiker und kommerzielle Nutzer geworden. Time-of-Flight-Kameras sind billig, von überschaubarer Größe und zeichnen sich durch einen relativ geringen Stromverbrauch aus. Diese bildgebenden Systeme liefern eine dichte 3D-Darstellung der beobachteten Szene, indem sie die Rücklaufzeit eines intensitätsmodulierten Lichtsignals von der Kamera zu den umliegenden Objekten schätzen. Trotz ihres enormen Potenzials wird der Einsatz von Time-of-Flight-Kameras nicht voll ausgeschöpft, da in der Praxis der erreichbare Winkelbereich durch das optische System eingeschränkt ist, während die laterale Auflösung durch die Anzahl der Pixel begrenzt ist und in unruhigen Umgebungen Artefakte auftreten können.
In dieser Arbeit stellen wir einen neuartigen Sensor vor, der diese Einschränkungen überwindet, d. h. die laterale Auflösung von der Pixelzahl und den Winkelbereich vom Sichtfeld der Kamera entkoppelt. Unser Ansatz beruht auf der Einführung einer kontrollierten Rotation während der Erfassung der Szene zusammen mit der Implementierung von Compressive Sensing Techniken. Wir zeigen, dass mit unserem System Tiefenauflösungen im Millimeterbereich erreicht werden können, während wir uns dem Echtzeitbetrieb nähern. Im Bereich der Abtastung entwickeln wir eine neuartige, nahezu optimale Konstruktionsmethode für die Abtastfunktionen, die einen kombinatorischen Ansatz sowie einen Bewertungsschritt zur Vermeidung der Selbstüberschneidung der Kodierungskurven beinhaltet. Darüber hinaus führen wir eine originelle Metrik zur Vorhersage und schließlich zur Korrektur des Fehlers ein, der sich aus konventionellen Erfassungsschemata ergibt, wie z. B. denjenigen, die auf zufälligen (0,1)-Binärmatrizen von Scrambled Hadamard Ensembles basieren. Im Hinblick auf die 3D-Szenenrekonstruktion beschreiben wir ausführlich eine Reihe von originellen, auf Compressive Sensing basierenden Wiederherstellungsalgorithmen, indem wir verschiedene Konzepte wie räumliche Korrelationen, räumlich-zeitliche Super-auflösung und die Verallgemeinerung der Mehrweg-Tiefenabfrage auf schraubenförmig kodierte 3D-Erfassungsfunktionen untersuchen. Schließlich stellen wir einen PB-ToF-Kameraprototyp als Konzeptnachweis für unseren rechnergestützten Sensor vor, der letztlich eine kostengünstige und praktische Alternative zu 360◦-Lidar-Sensoren in Navigations- und Kartierungssystemen werden soll.
Abschließend erhält der Leser in diesem Manuskript ein tiefes Verständnis der Grundlagen des Compressive Sensing und deren praktische Anwendung auf eine reale Time-of-Flight 3D-Kamera.
In dieser Hinsicht ist die 3D-Flugzeitbildgebung in den letzten Jahren zu einem attraktiven und kontinuierlichen Schwerpunkt für Forscher, Praktiker und kommerzielle Nutzer geworden. Time-of-Flight-Kameras sind billig, von überschaubarer Größe und zeichnen sich durch einen relativ geringen Stromverbrauch aus. Diese bildgebenden Systeme liefern eine dichte 3D-Darstellung der beobachteten Szene, indem sie die Rücklaufzeit eines intensitätsmodulierten Lichtsignals von der Kamera zu den umliegenden Objekten schätzen. Trotz ihres enormen Potenzials wird der Einsatz von Time-of-Flight-Kameras nicht voll ausgeschöpft, da in der Praxis der erreichbare Winkelbereich durch das optische System eingeschränkt ist, während die laterale Auflösung durch die Anzahl der Pixel begrenzt ist und in unruhigen Umgebungen Artefakte auftreten können.
In dieser Arbeit stellen wir einen neuartigen Sensor vor, der diese Einschränkungen überwindet, d. h. die laterale Auflösung von der Pixelzahl und den Winkelbereich vom Sichtfeld der Kamera entkoppelt. Unser Ansatz beruht auf der Einführung einer kontrollierten Rotation während der Erfassung der Szene zusammen mit der Implementierung von Compressive Sensing Techniken. Wir zeigen, dass mit unserem System Tiefenauflösungen im Millimeterbereich erreicht werden können, während wir uns dem Echtzeitbetrieb nähern. Im Bereich der Abtastung entwickeln wir eine neuartige, nahezu optimale Konstruktionsmethode für die Abtastfunktionen, die einen kombinatorischen Ansatz sowie einen Bewertungsschritt zur Vermeidung der Selbstüberschneidung der Kodierungskurven beinhaltet. Darüber hinaus führen wir eine originelle Metrik zur Vorhersage und schließlich zur Korrektur des Fehlers ein, der sich aus konventionellen Erfassungsschemata ergibt, wie z. B. denjenigen, die auf zufälligen (0,1)-Binärmatrizen von Scrambled Hadamard Ensembles basieren. Im Hinblick auf die 3D-Szenenrekonstruktion beschreiben wir ausführlich eine Reihe von originellen, auf Compressive Sensing basierenden Wiederherstellungsalgorithmen, indem wir verschiedene Konzepte wie räumliche Korrelationen, räumlich-zeitliche Super-auflösung und die Verallgemeinerung der Mehrweg-Tiefenabfrage auf schraubenförmig kodierte 3D-Erfassungsfunktionen untersuchen. Schließlich stellen wir einen PB-ToF-Kameraprototyp als Konzeptnachweis für unseren rechnergestützten Sensor vor, der letztlich eine kostengünstige und praktische Alternative zu 360◦-Lidar-Sensoren in Navigations- und Kartierungssystemen werden soll.
Abschließend erhält der Leser in diesem Manuskript ein tiefes Verständnis der Grundlagen des Compressive Sensing und deren praktische Anwendung auf eine reale Time-of-Flight 3D-Kamera.
Datei(en)![Vorschaubild]()
Lade...
Name
Dissertation_Lopez_Alvaro.pdf
Size
23.35 MB
Format
Adobe PDF
Checksum
(MD5):abb9d2a641832b39ba8aa281e046a24a
Enthalten in den Sammlungen

