News
08.08.2013, 12:39 Uhr
Bunte 3D-Welt schneller berechnet
Für die Erstellung von 3D-Filmkulissen ist heute noch viel Handarbeit nötig. Das könnte sich mit einer Technik ändern, welche Forscher der ETH und von «Disney Research Zurich» präsentiert haben.
Damit der Hobbit Frodo in «Herr der Ringe» in fantastischen, virtuellen Welten herumspringen kann, ist in den Hollywood-Studios viel Computerarbeit nötig: Virtuelle Elemente, wie zum Beispiel dramatische Waldlandschaften, müssen in der Postproduktion mit gefilmten Kulissen und Schauspielern kombiniert werden. Um virtuelle und reale Elemente in richtiger Perspektive und Proportion zusammenzubringen, müssen reale Objekte dreidimensional vermessen und in ein digitales Modell umgewandelt werden. Das geschieht herkömmlich mit einem 3D-Laserscanner, was jedoch teuer ist, viel Zeit braucht und für Elemente mit feinen Strukturen, wie Pflanzen und Bäume, schlecht funktioniert. Zudem können solche Scanner nicht gleichzeitig die Farben der gescannten Objekte erfassen. Ein Künstler muss deshalb die Objekte nachträglich manuell am Computer kolorieren.
Mit der Tiefenkarte zum 3D-Modell
Das könnte bald vorbei sein: Eine Gruppe von Forschern des «Computer Graphics Lab» der ETH Zürich und «Disney Research Zurich» hat eine neue Methode veröffentlicht, mit der die Anwender aus hochauflösenden Fotografien detaillierte 3D-Modelle berechnen können. Die Forscher um ETH-Informatikprofessor Markus Gross benutzten dazu eine herkömmliche digitale Spiegelreflexkamera mit 21 Megapixeln Auflösung. Während einer horizontalen Kamerafahrt von einem Meter wurden 100 Bilder einer statischen Szene aufgenommen, zum Beispiel eine Backsteinfassade mit einem Baum davor.
«Tiefenkarte»
Aus diesen Daten können die Forscher mit der neuen Methode für jedes Bild eine sogenannte «Depth map», eine digitale Tiefenkarte, berechnen. Diese gibt für jeden einzelnen Pixel die Distanz der Kamera vom aufgenommenen Gegenstand an. Daraus lässt sich in einem weiteren Schritt per Computer das dreidimensionale Modell der fotografierten Gegenstände, zum Beispiel des Baums vor der Hausfassade, erstellen. Die Kamera wird damit quasi zum 3D-Scanner umfunktioniert.
Verdeckte Stellen
Mit einem grossen Vorteil: Die Farbdaten zu den entsprechenden Objekten werden von der Kamera gleich mitgeliefert. Das aufwändige Kolorieren der finalen Szenen fällt weg. Zugleich sehen die Film-Postproduzenten dank der grossen Anzahl Bilder aus unterschiedlichen Positionen auch hinter die Gegenstände. Verdeckte Stellen, die dem 3D-Scanner entgingen, können so ebenfalls modelliert werden.
Nächste Seite: Paradigmenwechsel in der Bildverarbeitung
Paradigmenwechsel in der Bildverarbeitung
Paradigmenwechsel in der Bildverarbeitung
Zwar sei die dreidimensionale Rekonstruktion von Szenerien, die auf Fotografien basieren, nicht neu, erklärt Changil Kim, der Hauptautor der soeben veröffentlichten Publikation. «Diese war jedoch bislang ineffizient.» Für Bilder mit ein bis zwei Megapixeln hätten die Berechnungen bis zu Stunden dauern können, erzählt der Doktorand. Mit seinem neu entwickeltem Algorithmus dauere derselbe Prozess für ein 21-Megapixel-Bild nun weniger als zehn Minuten.
Pixelwolken
Der Grund für diese Effizienzsteigerung ist ein Paradigmenwechsel bei der Berechnung. Bisher wurden die ursprünglichen Bildinformationen in einem ersten Schritt vereinfacht, damit die limitierten Berechnungsmodelle damit umgehen konnten. Aus einzelnen Pixeln wurden Pixelwolken. Dabei gingen Bildinformationen verloren, was sich am Ende zum Beispiel an der fehlenden Schärfe von Objektkonturen zeigte.
Einzelne voneinander unabhängige Pixel
Mit Kims Algorithmus hingegen werden in einem ersten Schritt sämtliche Bildinformationen verarbeitet. Das ist möglich, weil nicht mit Pixelaggregaten gerechnet wird, sondern mit einzelnen, voneinander unabhängigen Pixeln. Mit solch parallelisierten Pixel-für-Pixel-Berechnungen kommen Grafikkarten wesentlich besser zurecht. Die Rekonstruktion der Bilder gelingt schneller, und dies ohne wertvolle Bildinformationen und scharfe Konturen zu verlieren. Die ersten Erfahrungen mit der neuen Rekonstruktionstechnik sind vielversprechend und wurden soeben auf der SIGGRAPH präsentiert, der grössten internationalen Konferenz für Computergrafik in Kalifornien.
Effizientere Algorithmen
Kim ist überzeugt: «Herkömmliche Algorithmen zur Bildrekonstruktion können mit den technologischen Fortschritten beim Film nicht mehr mithalten.» Technologien wie Full HD produzierten heute hochauflösende Bilder, für deren Verarbeitung effizientere Algorithmen nötig seien. Kim und seine Kollegen plädieren deshalb in der aktuellen Publikation für ein Überdenken bisheriger Methoden zur Bildverarbeitung. Davon könnte man in Zukunft nicht nur beim Film profitieren, sondern auch bei der Herstellung von Computerspielen oder bei der Visualisierungen in Architektur, Archäologie und Kunst.
Kommentare
Es sind keine Kommentare vorhanden.