Nach einem Besuch eines IMAX-3D-Films haben wir, meine Freunde und ich, uns gefragt, ob man zumindest dreidimensionale Fotos auch selbst machen kann und uns überlegt, worauf man da achten muss. Beim nächsten Urlaub haben wir es ausprobiert, und die Ergebnisse waren wirklich beeindruckend.
Zunächst einmal: wie funktionieren dreidimensionale Bilder? Das menschliche Auge sieht räumlich, indem es auf beiden Augen leicht verschiedene Bilder (um den Augenabstand verschoben) sieht, und aus dieser Verschiebung der Perspektive kann das Gehirn die Räumlichkeit rekonstruieren. Das funktioniert natürlich nicht für zu ferne Gegenstände (weil sich dann die Bilder der beiden Augen kaum noch unterscheiden), aber auch nicht für zu nahe Gegenstände (dann haben die Bilder zu wenig gemeinsam; bei den Augen ist das kein Problem, weil man Gegenstände, die derart nah sind, sowieso nicht mehr scharf sieht, aber bei 3D-Fotos mit größerem Objektivabstand muss man darauf achten).
Es gibt also zwei Möglichkeiten, dafür zu sorgen, dass die Augen jeweils verschiedene Bilder bekommen:
Ein dreidimensionales Bild verwenden: das geht nur mit der Holografie, und die ist sehr aufwändig. Der Vorteil ist, dass man das Bild aus jeder Perspektive anschauen kann.
Zwei zweidimensionale Bilder verwenden, und dafür sorgen, dass jedes Auge nur ein Bild zu sehen bekommt. So kann man natürlich nur eine einzige Perspektive sehen.
Bei der Holografie wird nicht die Helligkeit am jeweiligen Bildpunkt gespeichert, sondern ein Interferenzmuster. Dieses Muster entsteht, indem man ein kohärentes Lichtbündel (d.h. die Lichtwellen haben die gleiche Länge und schwingen phasengleich) verwendet, dieses teilt und beide Teile des Lichtbündels von verschiedenen Seiten auf das Objekt fallen lässt; so interferieren die Lichtstrahlen aus beiden Richtungen miteinander, und dieses Interferenzmuster hält man auf Fotopapier fest.
Die Unterschiede zu einem normalen Foto sind also:
Die räumliche Information wird im Hologramm gespeichert, weil im Gegensatz zu einem normalen Foto nicht die Intensität der Lichtstrahlen, sondern auch die Richtung der einfallenden Lichtstrahlen gespeichert wird. Bei einem normalen Foto kann man nicht mehr sagen, aus welcher Richtung das Licht bei der Aufnahme kam, daher sieht ein normales Foto aus jeder Richtung gleich aus, und auch die Position der Beleuchtung spielt keine Rolle.
Bei einem normalen Foto ist jedem Objektpunkt höchstens ein Bildpunkt zugeordnet. Das trifft bei der Holografie nicht zu: hier ergibt sich das Bild durch die Gitterstruktur des Interferenzmusters, es ist also gewissermaßen in jedem Bildpunkt das gesamte Bild gespeichert (aber nur in der jeweiligen Perspektive). Wenn man also ein Hologramm zerschneidet, enthalten beide Hälften weiterhin jeweils das gesamte Bild, aber sie haben beide einen Teil ihrer Perspektiven verloren.
Man braucht ein viel feineres Fotopapier, weil das Interferenzmuster von der Größenordnung der Lichtwellenlänge ist - also kleiner als ein Mikrometer. So feine Strukturen kann normales Fotopapier nicht abbilden.
Man braucht eine kohärente Lichtquelle - also einen Laser. Sowohl zum Erstellen als auch zum Betrachten des Fotos.
Bei der Aufnahme ist äußerste Präzision nötig, weil bereits Vibrationen im Mikrometerbereich die Aufnahme unbrauchbar machen.
Hier gibt es eine ganze Reihe von Methoden:
Polarisation: Man projiziert die Bilder für beide
Augen auf die gleiche Leinwand, aber jeweils durch einen Polfilter,
deren Polarisationsrichtungen senkrecht zueinander ausgerichtet
sind. Der Betrachter hat eine Brille mit ebenfalls senkrecht
zueinander ausgerichteten Polfiltern, so dass jedes Auge nur das für
sich bestimmt Bild sieht.
Diese Methode wird im IMAX-Kino
verwendet; man sieht die Polarisationswirkung der Brillen, wenn man
damit auf ein LCD-Display (Handy, Digitaluhr, PDA) schaut.
Vorteil: farbige Bilder sind möglich
Nachteil: eine spezielle Leinwand ist nötig (oder ein anderes Medium, das polarisiertes Licht aussenden kann), und der Betrachter darf den Kopf nicht neigen
Farbfilter: Wie bei der Polarisationsmethode, aber statt senkrecht zueinander stehender Filter nimmt man verschiedenfarbige Farbfilter (idealerweise mit stark verschiedenen Farben, wie z.B. rot-grün).
Vorteil: man braucht keine spezielle Leinwand, es geht z.B. mit dem Fernseher oder mit gedruckten Bildern
Nachteil: das Bild darf nicht farbig sein, weil andere Farben als die der Filter von beiden Augen sichtbar wären
Prismen (z.B. als Brille): Zwei Bilder liegen übereinander, eine Prismenbrille lässt beide Augen jeweils auf ein Bild schauen.
Stereogramme (Das magische Auge): Ein
Muster wird mehrfach nebeneinander gedruckt. Dabei werden einzelne
Teile des Musters verschoben, wie als hätte das Muster eine
räumliche Struktur und würde jeweils mit dem linken und
dem rechten Auge gesehen. Das heißt: statt eines Musters
könnte man einfach auch zwei Fotos verwenden, die im
Augenabstand gemacht wurden (aber die Fotos dürfen keine großen
Farbflächen haben, weil man dann die Verschiebung nicht erkennt
- daher geht es am besten mit kleinräumigen Mustern). Angeblich
geht es sogar mit Text (gedruckt oder per Hand geschrieben), bei dem
die Buchstaben jeweils etwas verschoben werden.
Das Besondere an
diesem Verfahren ist die Sehtechnik: man muss so auf das Stereogramm
schauen, dass man es nicht mit beiden Augen sieht, sondern mit jedem
Auge einen Teil. Dazu richtet man entweder die Augen parallel aus
(wie als würde man in die Ferne blicken), so dass jedes Auge
nur auf den Teil des Bildes vor ihm schaut; oder man schielt auf das
Bild, dann gehen die Blicke über Kreuz, das rechte Auge sieht
den linken Teil und umgekehrt.
Vorteil: keine Brille nötig
Nachteil: keine Farbe möglich (da das kleinräumige Muster nicht zum größeren 3D-Objekt passt), spezielle Sehtechnik muss erlernt werden
LCD-Shutterbrillen: das Anzeigegerät (Projektor, Monitor) zeigt abwechselnd die Bilder für das eine und das andere Auge, und eine LCD-Shutterbrille dunkelt jeweils das Brillenglas ab, dessen Auge das Bild nicht sehen soll.
Vorteil: das projizierte Licht muss nicht durch einen Filter, z.B. ein handelsüblicher Computermonitor reicht aus
Nachteil: Anzeigegerät braucht bei bewegten Bildern eine doppelt so hohe Bildwiederholrate, die Brillen sind aufwändig und teuer, das Anzeigegerät muss mit der Brille synchronisiert sein
Wir haben mit zwei Spiegelreflexkameras 3D-Dias fotografiert, und mit der Polarisationsmethode projiziert.
Die Fotoapparate sollten idealerweise auf gleicher Höhe und in Augenabstand (ca. 6 cm) sein. Dazu haben wir uns zwei Halterungen gebaut, je für Quer- und Hochformat. (Würde man z.B. mit der Querformat-Halterung Hochformatbilder machen, müsste der Betrachter dann seinen Kopf um 90° neigen.)
Hochformat: Hier haben wir die beiden Kameras mit Hilfe einer dicken Aluminiumplatte Boden an Boden zusammengeschraubt. Die Aluminiumplatte bekam auf der Schmalseite noch eine Mutter eingesetzt, die als Stativgewinde fungiert.
Querformat: Hier haben wir die Kameras nebeneinander auf eine Aluminiumplatte geschraubt. Damit der Objektivabstand möglichst nicht größer als der Augenabstand ist, haben wir die Kameras hintereinander versetzt angebracht, und auf der Aluplatte Markierungen gemacht, um die Kameras parallel ausrichten zu können.
Die Stativgewinde haben ein Zollgewinde; passende Schrauben und Muttern bekommt man günstig im Fotofachhandel oder in Schrauben-Spezialgeschäften.
Selbstverständlich müssen die Objektive die gleiche Brennweite haben. Zoom-Objektive sind hier sehr problematisch, weil es ein ziemliches Gefummel ist, sie auf den gleichen Bildausschnitt einzustellen. Wenn man ein Festbrennweiten- und ein Zoomobjektiv verwendet, sollte man am Zoomobjektiv eine Markierung an der Stelle machen, wo es die gleiche Brennweite wie das Festbrennweitenobjektiv hat. Achtung: je nach Zoomobjektiv kann es nötig sein, die Markierung bei einer fest definierten Entfernungseinstellung zu machen; zum Einstellen stellt man die Entfernung zuerst auf diese Einstellung, fährt dann den Zoom auf die Markierung und stellt dann erst scharf.
Weil man zwei Fotoapparate kaum wirklich gleichzeitig auslösen kann, haben wir grundsätzlich mit Stativ gearbeitet, und mit Drahtauslösern ausgelöst, um Erschütterungen zu vermeiden.
Entfernung: Ideal sind Objekte in einer Entfernung von ca. 10-100 m. Nähere Objekte ergeben zu verschiedene Bilder, es wird für den Betrachter zu anstrengend, während zu weit entfernte Objekte einfach nicht mehr räumlich erscheinen. Und damit man nicht nur die Räumlichkeit, sondern auch die Entfernungen erkennt, sollten die Objekte verschieden weit von den Kameras entfernt sein - ein schönes Motiv wären z.B. eine Parkbank mit Bäumen ein Stück dahinter, oder eine Mauer (in Längsrichtung gesehen).
Landschaftsaufnahmen: Landschaften sind wegen ihrer Größe meist so weit entfernt, dass sie als 3D-Fotos flach aussehen. Aber es gibt Abhilfe: um den 3D-Effekt zu verstärken, vergrößert man den Abstand zwischen den Kameras. Wichtig ist, dass der Winkel, den ein Objektpunkt mit den beiden Kameras bildet, ungefähr 0,2° beträgt (der exakte Wert ist egal, die Größenordnung muss stimmen). Damit ein Berg in 5 km Entfernung genauso räumlich aussieht wie ein Baum in 50 m Entfernung, muss man also den Kameraabstand von knapp 10 cm auf knapp 10 m erhöhen. Klar, dass dann keine Objekte im Vordergrund sein dürfen, die nur auf einem Bild zu sehen sind.
Bewegte Objekte: Kritisch ist hier, dass beide Fotoapparate wirklich gleichzeitig ausgelöst werden müssen, ansonsten gibt es Geisterbilder, die nur auf einem Foto zu sehen sind. Also: lieber etwas unschärfer und dafür räumlich, als verwirrende Geisterbilder.
Langzeitbelichtungen: sind auch sehr reizvoll, weil man Dinge darstellen kann, die man mit bloßem Auge nicht sieht. Zum Beispiel liefert eine nächtliche Langzeitbelichtung an einer Schnellstraße räumliche Lichtbänder, die über der scharf abgebildeten Straße schweben; die Autos sind nur als diffuse Schatten zu erahnen. Die Lichtbänder selbst erscheinen zwar kaum räumlich (selbst wenn sie von einem breiten Bus stammen), aber man kann deutlich erkennen, in welcher Abstandsebene sie sind - interessant sehen sie daher vor allem dann aus, wenn sie auf den Betrachter zu oder von ihm weg verlaufen.
Nachtaufnahmen: Es kann Probleme geben, wenn die
Fotoapparate verschiedene Linsensysteme verwenden. Zum Beispiel
wird eine Lichtquelle von dem einem Objektiv als zehnzackiger Stern
wiedergegeben, von einem anderen Objektiv nur als sechszackiger
Stern.
Helle Lichtquellen sollten außerdem nicht im Vordergrund
sein, weil sich dort die beiden Bilder stark unterscheiden,
und da die Polfilter das Licht nie 100%ig filtern, sieht man
die Lampen dann doppelt.
Leinwand: Als Leinwand haben wir uns ein Aluminiumblech gekauft, und mit einem Exzenterschleifer aufgerauht (damit sich das Licht vom Projektor gleichmäßig verteilt und kein Glanzlicht erzeugt). Wem das zu umständlich ist: für den Anfang tut es auch die matte Seite einer Alufolie.
Es gibt zwar auch eine 3D-taugliche Leinwand zu kaufen (Miracle 3D), aber sie war uns zu teuer (netto 158 DM pro Quadratmeter, Stoff ist 130 cm breit) und zu unflexibel (wenn man sie zusammenrollt oder dranstößt, löst sich die Beschichtung - daher kann man sie nur im aufgespannten Zustand aufbewahren, wo sie genauso viel Platz braucht wie eine Metallplatte).
Projektion: Wir verwenden zwei handelsübliche Diaprojektoren. Als Polfilter haben wir anfangs eine Filterfolie (10x10 cm) in einem selbst gebauten Rahmen, der vor dem Objektiv hängt, verwendet, aber die Qualität der Folien war ziemlich mies. Normale Polfilter für Fotoapparate, die man mit Isolierband an die Objektive der Projektoren befestigt, haben sich als die bessere Lösung erwiesen, und sie sind nicht einmal teurer als die Folien, wenn man sie gebraucht kauft.
Brillen: gibt es im Fotofachhandel zu kaufen, in der einfachen Pappausführung schon für wenige Euro
Einstellung der Filter: Die Polfilter an den Projektoren müssen so gedreht werden, dass man durch die Brille auf jedem Auge nur das passende Bild sieht - also auf dem rechten Auge nur das Bild, das mit dem rechten Fotoapparat gemacht wurde, und mit dem linken Auge nur das, das mit dem linken aufgenommen wurde.
Ausrichtung der Projektoren: Die Projektoren müssen
so ausgerichtet sein, dass beide Bilder deckungsgleich sind. Weil
sich die Bilder vor allem bei Objekten im Vordergrund unterscheiden,
richtet man sie so aus, dass Objekte, die möglichst weit
entfernt sind, deckungsgleich sind.
Erfahrungsgemäß
ist dabei die Abweichung der Dias, wie sie in den Rahmen und
im Projektor sitzen, größer als die Ausrichtungsgenauigkeit
der Projektoren - man muss also jedes Bild neu justieren, egal wie
sorgfältig man die Projektoren vorher ausgerichtet hat.
Aber generell ist die Ausrichtung der Bilder weniger kritisch als man
denkt. Das Auge kann sich erstaunlich gut anpassen, sobald die
Ausrichtung einigermaßen stimmt.