Lopez Paredes Alvaro2025-10-292025-10-292025https://dspace.ub.uni-siegen.de/handle/ubsi/7128Since the birth of Science, understanding, capturing and systematically reproducing the reality that surrounds us has represented an aspiration as well as a technological challenge for Engineers and Researchers. In this sense, 3D imaging technologies have remarkably evolved over the past decades, boosted by the increase of computational capabilities, the development of more efficient algorithms and the reduction of hardware requirements. Nowadays, our homes, offices and streets are ubiquitously appareled by 3D imaging devices. Thanks to them, we are able to guarantee the secure access to our data by enabling face recognition systems, reduce to a minimum the need of human intervention in routine or unsafe tasks, improve the productivity of our businesses, ensure the safety of our travels with more accurate navigation systems, or reproduce realities that were previously inaccessible for us. In this respect, Time-of-Flight 3D imaging has become an attractive and continuous pole of attention for researchers, practitioners and commercial users over the past years. Time-of-Flight cameras are cheap, manageable in size and are characterized by a relatively low-power consumption. These imaging systems provide a dense 3D representation of the observed scene by estimating the return-trip time of an intensity-modulated light signal from the camera to the surrounding objects. Despite their tremendous potential, the use of Time-of-Flight cameras is not fully exploited as, in practice, the reachable angular range is restricted by the optical system, while the lateral resolution is bound by the number of pixels and artifacts may appear in unsteady environments. In this Thesis, we present a novel computational sensor to surpass such limitations, i. e., to uncouple the lateral resolution from the pixel count and the angular range from the field of view of the camera. Our approach relies on the introduction of a controlled rotation during the sensing of the scene alongside the implementation of Compressive Sensing techniques. We demonstrate that our scheme may achieve depth resolutions close to milimeter-range, whilst approaching real-time operation. On the sensing front, we develop a novel near-to-optimal construction methodology of the sensing functions, which implements a combinatorial approach plus an evaluation step to avoid the self-intersection of the coding curves. Moreover, we introduce an original metric to predict and, eventually, correct the error derived from conventional sensing schemes, such as the ones based on random (0,1)-binary matrices of Scrambled Hadamard Ensembles. With regards to the 3D scene reconstruction, we thoroughly describe a set of original Compressive Sensing-based recovery algorithms, by exploring several concepts such as spatial correlations, spatio-temporal super-resolution, and generalization of multiple-path depth retrieval to helicoidally-coded 3D sensing functions. Finally, we present a PB-ToF camera prototype as a proof of concept of our computational sensor with the ultimate objective of becoming a cost-effective and practical alternative to 360º LIDAR sensors in navigation and mapping systems. In conclusion, in this manuscript the reader will get a profound understanding of Compressive Sensing fundamentals and their practical application to a real Time-of-Flight 3D camera.Seit den Anfängen der Wissenschaft ist das Verstehen, Erfassen und systematische Reproduzieren der uns umgebenden Realität sowohl ein Bestreben als auch eine technologische Herausforderung für Ingenieure und Forscher. In diesem Sinne haben sich die 3D-Bildgebungstechnologien in den letzten Jahrzehnten bemerkenswert weiterentwickelt, begünstigt durch die Steigerung der Rechenkapazitäten, die Entwicklung effizienterer Algorithmen und die Verringerung der Hardwareanforderungen. Heutzutage sind unsere Häuser, Büros und Straßen allgegenwärtig mit 3D-Bildgebungsgeräten ausgestattet. Dank dieser Geräte können wir den sicheren Zugang zu unseren Daten durch Gesichtserkennungssysteme gewährleisten, die Notwendigkeit menschlichen Ein-greifens bei Routine- oder unsicheren Aufgaben auf ein Minimum reduzieren, die Produktivität unserer Unternehmen verbessern, die Sicherheit unserer Reisen mit genaueren Navigationssystemen gewährleisten oder Realitäten abbilden, die uns zuvor unzugänglich waren. In dieser Hinsicht ist die 3D-Flugzeitbildgebung in den letzten Jahren zu einem attraktiven und kontinuierlichen Schwerpunkt für Forscher, Praktiker und kommerzielle Nutzer geworden. Time-of-Flight-Kameras sind billig, von überschaubarer Größe und zeichnen sich durch einen relativ geringen Stromverbrauch aus. Diese bildgebenden Systeme liefern eine dichte 3D-Darstellung der beobachteten Szene, indem sie die Rücklaufzeit eines intensitätsmodulierten Lichtsignals von der Kamera zu den umliegenden Objekten schätzen. Trotz ihres enormen Potenzials wird der Einsatz von Time-of-Flight-Kameras nicht voll ausgeschöpft, da in der Praxis der erreichbare Winkelbereich durch das optische System eingeschränkt ist, während die laterale Auflösung durch die Anzahl der Pixel begrenzt ist und in unruhigen Umgebungen Artefakte auftreten können. In dieser Arbeit stellen wir einen neuartigen Sensor vor, der diese Einschränkungen überwindet, d. h. die laterale Auflösung von der Pixelzahl und den Winkelbereich vom Sichtfeld der Kamera entkoppelt. Unser Ansatz beruht auf der Einführung einer kontrollierten Rotation während der Erfassung der Szene zusammen mit der Implementierung von Compressive Sensing Techniken. Wir zeigen, dass mit unserem System Tiefenauflösungen im Millimeterbereich erreicht werden können, während wir uns dem Echtzeitbetrieb nähern. Im Bereich der Abtastung entwickeln wir eine neuartige, nahezu optimale Konstruktionsmethode für die Abtastfunktionen, die einen kombinatorischen Ansatz sowie einen Bewertungsschritt zur Vermeidung der Selbstüberschneidung der Kodierungskurven beinhaltet. Darüber hinaus führen wir eine originelle Metrik zur Vorhersage und schließlich zur Korrektur des Fehlers ein, der sich aus konventionellen Erfassungsschemata ergibt, wie z. B. denjenigen, die auf zufälligen (0,1)-Binärmatrizen von Scrambled Hadamard Ensembles basieren. Im Hinblick auf die 3D-Szenenrekonstruktion beschreiben wir ausführlich eine Reihe von originellen, auf Compressive Sensing basierenden Wiederherstellungsalgorithmen, indem wir verschiedene Konzepte wie räumliche Korrelationen, räumlich-zeitliche Super-auflösung und die Verallgemeinerung der Mehrweg-Tiefenabfrage auf schraubenförmig kodierte 3D-Erfassungsfunktionen untersuchen. Schließlich stellen wir einen PB-ToF-Kameraprototyp als Konzeptnachweis für unseren rechnergestützten Sensor vor, der letztlich eine kostengünstige und praktische Alternative zu 360◦-Lidar-Sensoren in Navigations- und Kartierungssystemen werden soll. Abschließend erhält der Leser in diesem Manuskript ein tiefes Verständnis der Grundlagen des Compressive Sensing und deren praktische Anwendung auf eine reale Time-of-Flight 3D-Kamera.enAttribution-NonCommercial-NoDerivatives 4.0 Internationalhttp://creativecommons.org/licenses/by-nc-nd/4.0/621.3 Elektrotechnik, ElektronikTime-of-Flight CameraTime-of-Flight-KameraCompressive Sensing3D ImagingKompressive Abtastung3D-BildgebungEfficient Very-wide-area Time-of-Flight 3D Imaging by means of Adaptive Compressive SensingEffiziente großflächige Time-of-Flight-3D-Bildgebung durch adaptive kompressive AbtastungDoctoral ThesisMiguel Heredia Condeurn:nbn:de:hbz:467-71286