3D-Kamera mit Nanoblitz: Jetzt auch auf Glas und im Regen scharf

Raffinierte Berechnung lässt Filmkamera mit Radar-Prinzip auch durchsichtige und verschwommene Objekte wahrnehmen - Anwendung für selbst steuernde Autos und Qualitätskontrolle
Die Bildfolge macht sichtbar, wie die Lichtfront die gesamte Szene innerhalb weniger Nanosekunden von vorne nach hinten durchwandert – und dabei auch die Strukturen hinter der Glasvase reflektiert.
Die Bildfolge macht sichtbar, wie die Lichtfront die gesamte Szene innerhalb weniger Nanosekunden von vorne nach hinten durchwandert – und dabei auch die Strukturen hinter der Glasvase reflektiert.
© MIT Nanophotography
Boston (USA) - Eine ganze Szene dreidimensional auf einen Schlag aufnehmen: Das ist die Stärke von Spezialkameras, die – ähnlich dem Radar – die Entfernung zu den einzelnen Objekten im Bild blitzartig messen und abbilden. Dabei wandert eine einzige Lichtfront durch die Szene und liefert die gesamte Information zurück – bis zu eine Billionen Mal pro Sekunde oder deutlich langsamer bei der Videospiel-Sensorik Kinect. Jetzt haben US-Forscher die Methode gleich doppelt revolutioniert: Zum einen lässt sich ihre neue „Nano-Kamera“ nicht mehr durch Glasoberflächen, Regen oder Nebel stören, was bislang die Signal-Auswertung durcheinander brachte. Zum anderen besteht die neue Kamera aus handelsüblichen Teilen und kostet so nur noch ein Tausendstel ihres schnellen Vorgängers. Die Entwickler präsentierten ihren Prototyp kürzlich auf der Konferenz Siggraph Asia 2013 in Hongkong. Diese Technik eignet sich für Echtzeitabtastung in Industrie und Medizintechnik ebenso wie für autonome Autos oder auch interaktive 3D-Videospiele.

„Mit dem derzeitigen Stand der Technik, wie dem neuen Kinect, kann man keine durchsichtigen Objekte in 3D vermessen“, erklärt Achuta Kadambi, Bilderkennungsforscher am Media Lab des Massachusetts Institute of Technology (MIT): „Das liegt daran, dass das reflektierte Licht vom Objekt und das vom Hintergrund in ein Pixel der Kamera zusammenschmieren.“ Die neue Methode hingegen berücksichtigt solche Interferenzen und macht dreidimensionale Modelle auch von durchsichtigen oder durchscheinenden Objekten möglich. Im Prinzip arbeiten solche Time-Of-Flight (TOF)- oder PMD-Kameras ähnlich wie ein Radar oder Echolot, das Signale aussendet und deren Reflektionen in der Umgebung registriert. Die Kamera schickt Lichtfronten in die Tiefe des Raumes und misst für jeden Pixel ihres Sensors die Laufzeit, englisch „time of flight“, die das Licht an dieser Stelle zur Rückkehr benötigt hat. Aus diesen Werten berechnet das System zentimetergenau das dreidimensionale Relief der Szene, bis in rund 40 Meter Entfernung. Der Trick des neuen Systems liegt vor allem im Algorithmus, so die Forscher, der pro Pixel mehrere Entfernungssignale akzeptiert und nur den passendsten Wert wählt.

„Wir nutzen eine neue Methode, die uns das Kodieren der Information in der Zeit erlaubt“, erklärt Projektleiter Ramesh Raskar: „Wenn die Daten also zurückkommen, können wir in der Telekommunikation sehr verbreitete Berechnungen vornehmen, um aus dem einzelnen Signal unterschiedliche Distanzen zu schätzen.“ Die Methode ähnelt ein wenig Bildstabilisatoren bei Kameras, wo bei Unschärfe der Sensor-Algorithmus Vermutungen anstellt und Verwacklungen herausrechnet, um möglichst scharfe Bilder zu bekommen. Vor zwei Jahren hatte Raskars Forschungsgruppe den bisherigen Rekordhalter der TOF-Kameras entwickelt: eine Billionen-Bilder-pro-Sekunde-Kamera, die Lichtsignale von nur Femtosekunden Dauer aussendet – Milliardstel Mikrosekunde – und den Rücklauf mithilfe schneller, teurer Labor-Optik registriert. Diese „Femto-Kamera“ kostete rund 340.000 Euro. Im Gegensatz dazu liegt das aktuelle Gerät nur bei rund 340 Euro und heißt „Nano-Kamera“, weil ihr Lichtsignal „nur“ im Nanosekundenbereich arbeitet, bei Tausendstel Mikrosekunden. Dafür griffen die Forscher auf kostengünstige Hardware zurück. Sie leuchten das Bild etwa mit handelsüblichen Leuchtdioden aus, deren Lichtsignal im Nanosekundenabstand schwingt.

Anwendungen für das System sind auch dank des niedrigen Preises viele möglich, berichtet das Team um Raskar. Das reicht von der Qualitätskontrolle auf Fließbändern der Glasindustrie bis zur Bildgebung in der Medizin. Aber auch selbst fahrende Autos könnten damit in Nebel oder Regen genauer ihre Umgebung abtasten und Kollisionen vermeiden. Und nicht zuletzt dürften wegen des besseren Algorithmus’ auch die Spieler interaktiver 3D-Videogames profitieren.

© Wissenschaft aktuell


 

Home | Über uns | Kontakt | AGB | Impressum | Datenschutzerklärung
© Wissenschaft aktuell & Scientec Internet Applications + Media GmbH, Hamburg