S3D - Stereoskopie: Grundlagen zur Tiefenwirkung, Problematiken.

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Hallo Jürgen.

      Freut mich sehr, dass du meine Anregung selber rumzuspielen aufgegriffen hast.

      6cm als "Normal-Perspektive" gilt
      Jein. Die Stereobasis ist abhängig von einigen Randbedingungen.

      Es gibt eine Faustformel : Nahpunktweite (nähestes Objekt) > Stereobasis * Brennweite
      Umgekehrt heißt das: Stereobasis < Nahpunktweite / Brennweite

      Diese Faustformel geht von Kleibbild und bestimmten Projektionsbedingungen aus. Ändert sich die Brennweite/Negativformat, der Nahpunkt oder der Vergrößerungsfaktor (bei Diaprojektion - für Digitalfotos müsste man sich überlegen wie man das umrechnet), dann sollte man die Stereobasis anpassen. Bei Nahaufnahmen ist z.B. eine Stereobasis von 1-2 cm nicht unüblich.

      Was auf jeden Fall bei den Versuchen provozierbar sein sollte sind die Pappkameraden/Kulissen (Scherenschnittfiguren ohne räumliche Tiefe) bei Betrachtung am Monitor, da die Bildtiefe im Vergleich zur großen Leinwand eingeschränkt ist.

      Wie man nun Gigantismus/Liliputismus provoziert, da muss ich in Ruhe drüber nachdenken. Ich lese mal bei Gelegenheit im Buch von Gerhard Kuhn nach, der hat ein eigenes Kapitel dazu.
    • Hallo,
      nach langer Zeit gucke ich auch mal wieder hier vorbei, vor allem das Vernageln von HDTV mit HDCP hat bei mir mit CRT-Projektor das Thema Heimkino etwas einschlafen lassen. (Aber jetzt mit dem HDCP-Generalschlüssel kann ich meinen halbfertigen Entwurf eines HDTV-Deinterlacers/Bildwechselvervielfachers/Scalers nun wohl doch weiter verfolgen).

      Zum Thema Stereoskopie: Sehr guter Beitrag von Elmar - im wesentlichen auch mein Reden, wenn das Thema auf 3D kommt. Ebenso die Tatsache, daß der 3D-Effekt von der absoluten Bildgröße abhängt, selbst bei gleichem Blickwinkel. Seit einiger Zeit beschäftige ich mich auch (besser: schon wieder) mit dem Thema, habe auch schon Stereofotos gemacht, mit einer Kamera und einer Stereoschine (eigentlich ist das eine Macroschine, gibt es immer wieder bei Ebay, die eine X-Y-Positionierung, also seitlich und vor/zurück um ca. +/-10cm erlaubt). Außerdem arbeite ich mit PovRay, einem Raytracingprogramm. Mit einigen Überlegungen in Geometrie wird eigentlich schnell klar, wie man eine richtige, "maßstäbliche" Stereoaufnahme macht:

      Kameraabstand ist immer gleich Augenabstand, egal, wie groß später die Leinwand oder der Monitor ist. Die Kameras blicken parallel zueinander, nur so sind die Sensorflächen/Filmebenen parallel zueinander. Da später beide Bilder auf derselben Leinwand bzw. Bildschirm dargestellt werden, ist das ein absolutes Muß, sonst haben die beiden Teilbilder unterschiedliche seitliche Trapezverzerrungen. Damit Punkte am Horizont (also Objekte "unendlich" weit entfernt, in der Praxis genügen wohl mehrere 100m oder >1km) im Augenabstand voneinander auf der Leinwand abgebildet werden, müssen die beiden Kameras mithilfe eines Lensshifts etwas "schielen". Das Maß des "Schielens" hängt von der späteren Bildgröße ab. Da normale Fotokameras (digital oder analog) meistens einen größeren Blickwinkel haben als man später auf der Leinwand hat. braucht man gar keinen richtigen Lensshift. Man wählt Bildausschnitte, die dem Blickwinkel auf die Leinwand entsprechen (Ein Foto von der Leinwand vom Sitzplatz aus mit eben dieser Kamera zeigt, wie groß der Bildausschnitt sein muß), und zwar nicht mittig, sondern leicht nach innen versetzt. Da unendlich weit entfernte Objekte auf beiden Teilbildern wegen der parallelen Kameraausrichtung auf der gleiche Stelle im Bild landen, muß die seitliche Versetzung der Bildausschnitte im Verhältnis zu deren Breite gleich dem Verhältnis von Augenabstand zu Leinwandbreite sein. Wenn z.B. der Augenabstand 65mm beträgt, die Leinwandbreite 1.3m (damit kann man leicht rechnen, ist 20-facher Augenabstand) und der Bildausschnitt der Fotos 2000 Pixel breit ist (d.h. das Foto der Leinwand vom Sitzplatz ist 2000 Pixel breit), dann müssen die Ausschnitte um 200 Pixel seitlich zueinander versetzt sein - jeder Ausschnitt also um 100 Pixel. Macht man das genau so, erhält man eine korrekte 3D-Darstellung im Maßstab 1:1. Objekte erscheinen also genau so groß und genau so weit weg wie sie bei der Aufnahme waren.

      Da Fotokameras einen größeren Blickwinkel haben, kann man aus den beiden Rohbildern mehrere Stereobildpaare erzeugen, passend für jede Bildgröße und jeden Betrachtungsabstand. Die Stereobasis, also der Abstand der Fotoapparate (oder der Abstand, mit dem man mit einer Kamera nacheinander die Fotos schießt) bleibt immer gleich. Ändert man diese Stereobasis, bekommt man den Gigantismus oder die Lilliputwelt. Vergrößert man die Stereobasis, wirkt alles wie eine Modelllandschaft, verkleinert man die Stereobasis, wirkt alles viel größer. Im ersten Fall wird man selber ja größer (man "selber" wird ja ausschließlich über die Stereobasis als Augenabstand definiert), was darauf hinausläuft, daß alles um einen herum kleiner wirkt - und umgekehrt. Wenn ich z.B. eine Macroaufnahme einer kleinen Blume machen will, kann ich kaum mit der Kamera 10cm bei 65mm Stereobasis heraungehen. Bei dieser normalen Stereobasis würde die dann auch bei der Wiedergabe scheinbar 10cm in Originalgröße vor einem schweben, das wirkt aber kaum noch, wahrscheinlich sind die Teilbilder dann sogar teilweise außerhalb der Leinwand. Also verkleinert man die Stereobasis auf z.B. 1/20 bei der Aufnahme. Der Versatz der Bildausschnitte bleibt aber gleich. Und schon hat man eine 20-fach vergößerte Blume in 2m Abstand vor einem, Größe und Tiefe gleichermaßen um den Faktor 20 vergrößert. Ich habe das alles auch schon in der Praxis erprobt, die Ergebnisse stimmen mit meinen theoretieschen Überlegungen überein.

      Mit Povray kann man es genauso machen, da werden eben zwei virtuelle Kameras im Augenabstand parallel ausgerichtet und die beiden Teilbilder werden getrennt gerendert. Ich habe dafür bei mir den Blickwinkel auf die Leinwand festgelegt (Betrachtungsabstand 1.8-fache Bildbreite beim Format 16:9), rendere aber die Bilder im Format 20:9, also breiter als später benötigt. Die Bildausschnitte haben das Format 16:9 und die gleiche Höhe (weil ich den Blickwinkel festgelegt habe, ist die Höhe des Bildausschnitt immer gleich). Daraus kann ich dann ebenfalls durch passenden Versatz der Bildausschnitte Stereobilder für verschieden große Leinwände erstellen, ohne die Bilder jedesmal neu rendern zu müssem.

      Übrigens bin ich momentan dabei, mit PovRay einen ganzen Kurzfilm über 3D zu machen, auch mit einem kleinen Demofilm. Rund 7 Minuten sind schon fertig gerendert (das hat ca. 10 Wochen Renderzeit jeweils über Nacht beansprucht...) und die sehen auf meiner Leinwand in Shuttertechnik schon sehr gut aus. Die Technik ist die gleiche wie bei den IMAX-3D DVDs, die mit Shutterbrillen geliefert wurden, leider sieht jedes Auge nur ein Halbbild (also halbe Zeilenzahl) und 30Hz bzw. bei meiner PAL-Produktion 25Hz. Das flimmert schon etwas, geht aber für einen Kurzfilm noch, besonders mit einem nicht ganz so hellen CRT. Dafür habe ich 288 sichtbare Zeilen pro Halbbild, bei den NTSC IMAX DVDs sind es nur 240 Zeilen - und da es Filme im 4:3-Format sind und ich auf 16:9 aufzoome, um die Bildgröße wenigstens etwas größer und damit etwas "näher" an die IMAX-größe herankomme, sind dort sogar nur 180 Zeilen sichtbar.

      Übrigens: wie erwartet hat mam bei den IMAX-3D DVDs den "Puppenstubeneffekt", die gesamte Tiefenstaffelung spielt sich etwa zwischen 0.5m vor und hinter der Leinwand ab, mehr gibt es nicht, wenn sie 15-20-mal kleiner als die originale IMAX-Leinwand ist... Das Verhältnis von Objektgröße und deren Tiefe ist schon sehr stark verzerrt, eben weil die Leinwandgröße so extrem viel kleiner ist.

      Gruß
      Gruß
      Andy W
    • Hallo Elmar,

      ich habe mir das Buch von Gerhard Kuhn beschafft.

      Toller Tip zwar etwas altmodisch aber ich habe den Eindruck, dass da beinahe alles drinsteht, was über die Geometrie von S3D wichtig ist. Da habe ich auch verstanden, dass es noch viel mehr gibt, als was wir hier diskutieren.

      Aber: das Buch sieht aus wie ein Buch über Aktfotografie. Wenn das jemand sieht, muss man erst mal erklären... :biggrin:

      Gruß Jürgen
    • Andy W schrieb:

      Hallo,
      nach langer Zeit gucke ich auch mal wieder hier vorbei, vor allem das Vernageln von HDTV mit HDCP hat bei mir mit CRT-Projektor das Thema Heimkino etwas einschlafen lassen. (Aber jetzt mit dem HDCP-Generalschlüssel kann ich meinen halbfertigen Entwurf eines HDTV-Deinterlacers/Bildwechselvervielfachers/Scalers nun wohl doch weiter verfolgen).


      Da hast du aber tief und fest geschlafen. HDCP war nie ein Hindernis im CRT-Bereich, dank zu erst Spatz, dann Moome und jetzt HD Fury.

      Gruß
      Thechnor
    • HJS schrieb:

      ich habe mir das Buch von Gerhard Kuhn beschafft.


      Schön. Für die Formeln braucht man etwas Ruhe, aber es lohnt sich, da ein wenig einzusteigen.

      Ja, dass es altmodisch wirkt habe ich glaube erwähnt. Schon erstaunlich, wie sehr der Inhalt schon nach wenigen Jahren (Buch von 1999, ich hab's ca. 2003 gekauft) angestaubt wirkte.

      Schön wäre eine Neuauflage, in der die Formeln auf digitale Verhältnisse transformiert werden: Die Bezugsgröße KB-Dia gibt es nicht mehr, im Gegensatz zum Dia hat Sensorgröße nichts mehr mit der Panelgröße zu tun, einen definierten Vergrößerungsfaktor gibt es nicht mehr, die Objektivbrennweite dürfte man nicht mehr auf eine konstante Sensorgröße beziehen usw. Meines Erachtens müsste es leicht möglich sein, statt der absoluten Bezugsgröße KB-Dia eine relative Bezugsgröße wie % Sensorbreite oder Anzahl Full-HD Pixel zu ersetzen.

      Ja, es steht noch viel mehr drin. Ich habe auch nicht alles im Kopf. In meinen Beitrag habe ich mich auf einfach verständliche Beispiele beschränkt.

      Das Titelbild ist in der Tat irreführend. Wie Richard vor Jahren mal so schön schrieb "Sex sells".
    • Hallo,
      die Möglichkeiten zur 3D-Technik im Heinkino wurde schon hier besprochen, wirklich machbar wären Shutterbrillen oder Polarisationsverfahren. Für Polarisationsverfahren braucht man eine spezielle Silberleinwand, die für normales 2D aber nicht optimal ist, der echte Freak wird also zwei Leinwände brauchen... LCD-Projektoren liefern bereits polarisiertes Licht, zwei Projektoren liefern gleich polarisiertes Licht. Für lineare Polarisation müßte man vor jedem Projektor Polfilter um je +/-45° gedreht davorsetzen, dann würde es funktionieren. Das ergibt aber einen zusätzlichen Lichtverlust von theoretisch 50%, praktisch noch mehr. Für zirkular polarisiertes Licht gilt wohl das Gleiche. Ich finde es für linear polarisiertes Licht nicht so störend, daß man den Kopf gerade halten muß, das muß man bei 3D sowieso. Neigt man den zu sehr zur Seite, sind die Teilbilder zueinander höhenversetzt und der 3D-Effekt ist dann auch weg - auch ohne Ghosting. Mit zwei DLPs müßte das funktionieren, aber auch hier braucht man eine Elektronik, die die beiden Teilbilder in zwei getrennte Videosignale für die beiden Projektoren aufteilt.

      Zumindest für meine Anwendungen kommt nur die Shutterbrille in Frage, man hat immer noch die gleiche Leinwand und einen Projektor. Bei einem CRT kann die Öffnungszeit der Shutterbrille für jedes Auge fast 50% betragen, zusammen mit den Polfilterverlusten der LCD-Shutter ist die Helligkeit theoretisch max. 25% der Helligkeit bei 2D-Wiedergabe. Bei LCD ist die Öffnungszeit deutlich kleiner als 50%, da beim Bildaufbau zwei Teilbilder gleichzeitig auf dem LCD sind. Beim CRT ist das nicht der Fall. Mein nächster De-Interlacer wird auch einen 3D-Shuttermodus bekommen, so daß er bei Halbbildshuitter (z.B. die NTSC IMAX-DVDs) mit höherer Shutterfrequenz arbeiten kann und nicht mit 30Hz bzw. 25Hz flimmern muß. 3D wird bei mir immer nur eine Nischentechnik bleiben, wenn auch eine sehr interessante. Bisher habe ich noch in keinem 3D-Kino oder zuhause mit 3D eine Qualität erlebt, die auch nur annähernd an die normale 2D-Darstellung herankommt.

      Bei der Filmgestaltung muß man bei 3D vieles anders gestalten als sonst, deshalb bin ich sehr skeptisch bei Filmen, die nachträglich für 3D aufgepeppt werden. Objekte näher als die Leinwand sollten eher eine Ausnahme sein und wenn welche da sind, sollten sie möglichst nicht rechts oder links am Bildrand angeschnitten sein, sondern vollständig sichtbar sein. sonst ist der 3D-Effekt zerstört, da die abgeschnittenen Objektränder _hinter_ dem Objekt sind. Oben und unten können die schon eher angeschnitten sein, am besten aber gar nicht. Vielleicht kennt jemand die Schlußszene im 3D-Kino Disneyworld mit den Muppets, da funktioniert das wunderbar (Kermit auf einer Feuerwehrleiter, die durch ein scheinbares Loch in der Leinwand und der Mauer dahinter ins Kino reicht). Objekte, die weiter weg als die Leinwand sind, können problemlos angeschnitten werden, man sieht sie wie durch ein Fenster, dessen Rahmen der Leinwandrand ist. Schnitte sollten sparsam eingesetzt werden, meine bisherige 7-min Sequenz meines 3D Demofilmchens hat bisher noch gar keinen Schnitt. Langsame Kamerafahrten kommen meistens sehr gut in 3D, die sollten aber nicht zu schnell werden. Zoomen geht dagegen gar nicht. Der Blickwinkel muß stets dem Blickwinkel auf die Leinwand gleichen, sonst hat man geometrische Verzerrungen. Stattdessen muß man mit der Kamera näher an die Objekte fahren. Eine gleichzeitige Änderung der Stereobasis (Abstand der beiden Kameras) ist möglich, das wäre eine Art Zoom in den Gigantismus oder den Lilliputismus, der Standort muß aber passen oder gleichzeitig angepaßt werden. Die Schärfentiefe sollte so groß wie möglich sein, damit der Blick auf alle Bildelemente möglich ist, sonst sieht man z.B. den Hintergrund auch dann nur unscharf, wenn man den anvisiert. Das ist auch nur ein Kompromiß, aber immer noch besser als eine kleine Schärfentiefe.

      Ideal wäre für 3D ein sog. 180°-Kino, wie es sie früher mal auf dem Jahrmarkt gab. Steht man genau in der Mitte der Kuppel, füllt das Bild das ganze Gesichtsfeld. Dann gibt es auch kaum noch Beschränkungen, wo und wie nah man Objekte plaziert, selbst ein Stoß mit der Schirmspitze direkt aufs Kamaraobjektiv wurde sehr überzeugend wiedergegeben (man hatte das Gefühl, die Schirmspitze stößt auf die eigene Nase). Leider war die Bildschärfe und vor allem der Ton nicht besonders gut, aber prinzipiell wäre ein 180°-Kino für 3D ideal. Ich war auch in Paris im Geode und habe dort einen 3D-Film gesehen, leider war das aber ein normaler IMAX-Film, der nicht die ganze Halbkugel ausgefüllt hat. Im Gegenteil, durch die gewölbte Leinwandoberfläche wurde die Geometrie verzerrt, denn die IMAX-Filme sind ja für eine ebene Leinwand produziert worden. Außerdem hat mir die Interferenzfiltertechnik überhaupt nicht gefallen. Erstens war das Bild sehr dunkel (schmalbandige optische Bandpässe schlucken sehr viel Licht) und zweitens deutlich unterschiedliche Farbeindrücke für linkes und rechtes Auge. Die Unterschiede waren so stark, daß bei Objekten bestimter Farben (z.B. rot) der 3D-Effekt ge- oder zerstört wurde, ähnlich wie bei einer rot/cyan Anaglyphenbrille, wenn man mit Gewalt trotzdem eine farbige Wiedergabe anstrebt.
      Gruß
      Andy W
    • Hallo,
      das Buch von Gerhard Kuhn habe ich inzwischen auch, sehr empfehlenswert! Allerdings macht man sich dort die Sache unnötig schwer, indem man immer die kompletten Bilder, wie sie die Kamera geschossen hat, als Teilbilder für links und rechts nimmt. Das Buch beschreibt vor allem die analoge Stereofotografie mit Dias, die direkt gerahmt und projeziert werden.

      Wie ich schon geschrieben habe, macht man natürliche 3D-Bilder, die keine Verzerrungen aufweisen, wenn der Blickwinkel der Kamera(s) genauso groß wie der auf die Leinwand ist, die Kameras im Augenabstand waren (Stereobasis = Augenabstand), "Parallelblick" haben und per Lensshift die Objekte zur Deckung bringt, die genau so weit wie die Leinwand entfernt sind (Fensterweite). Alternativ zum Parallelblick und dem Lensshift, den kaum eine Kamera (au0er Fachkameras) haben dürfte, kann man die Kameras aufeinander zu neigen, so daß sich deren optische Achsen bei der Fensterweite schneiden. Allerdings haben die Teilbilder dann leichte Trapezverzerrungen, und zwar für links/rechts spiegelbildlich zueinander. Bei einer großen Fensterweite (großes Kino, evtl. IMAX oder zumindest Heimkinoleinwand) hält sich das noch in Grenzen, bei 3D-Bildern für einen Monitor, Fernseher oder für gedruckte Anaglyphenbilder in einem Buch ist die Fensterweite sehr klein und die Trapezverzerrungen werden so groß, daß der 3D-Effekt darunter schon sehr leidet. Das habe ich übrigens selber mit PovRay-Bildern ausprobiert, mit virtuellen Raytracingkameras kann man beides leicht probieren.

      3D-Fotos mit Digitalkameras sind relativ leicht korrekt machbar, das habe ich schon beschrieben, das Geheimnis liegt eben in der richtigen Auswahl der Bildausschnitte, die man machen muß. Da digitale Fotokameras heute eine so große Auflösung haben, ist es kein Problem, mit Bildausschnitten immer noch volle HD-Auflösung zu erhalten. Anders sieht es bei 3D Stereocamcordern aus. Die, die es zu kaufen gibt, haben natürlich nur zweimal die native Videoauflösung und es ist nicht vorgesehen, daraus Bildausschnitte zu verwenden. Auch der Blickwinkel dürfte kaum mit dem eigenen auf die Leinwand übereinstimmen. Hat so ein Camcorder einen Zoom, kann man so wenigstens den Blickwinkel noch einstellen, bei dem sollte man dann auch permanent bleiben. Ansonsten hat man wieder die gleichen Probleme wie bei analoger 3D-Fotografie, nur daß bei dem Camcorder die Fensterweite auch schon festgelegt wird und nur zufällig mit der eigenen übereinstimmt. Oder die Kamera hat einen größeren Blickwinkel und man wählt sich passende Bildausschnitte aus (dann kann man für unterschiedliche Leinwandgrößen und Entfernungen passende 3D-Filme machen), hat dann allerdings einen Verlust an Auflösung und muß ständig skalieren.

      Bei 3D-Kinofilmen gäbe es durchaus eine Möglichkeit, die fürs Heimkino anzupassen: Man muß die beiden Teilbilder bei der Wiederbage relativ zueinander verschieben. Im Allgemeinen muß man sie etwas weiter auseinander schieben, bis weit entfernte Objekte im Hintergrund ("im unendlichen") auf der eigenen Leinwand wieder Augenabstand haben. Vorher ist dieser Abstand kleiner, da sie auf der großen Kinoleinwand Augenabstand haben und nun das Bild verkleinert ist. Das funktioniert ganz ohne Bildinhaltsanalyse und neuer Bildsynhese, da die Stereobasis auch fürs IMAX immer noch dem Augenabstand entspricht. Soweit ich weiß, gibt es aber bisher keinen Bildprozessor, der so etwas bietet. Für meinen neuen Deinterlacer werde ich so eine Funktion mit vorsehen. Nur bei einer 3D-Wiedergabe mit zwei Projektoren für Polarisation könnte man so etwas machen, indem man die Projektoren entsprechend ausrichtet. Die beiden Teilbilder müssen anschließend in der Breite beschnitten werden, eins links und eins rechts, bis sich die Ränder der beiden Teilbilder wieder überall decken. Damit verschenkt man etwas vom seitlichen Bildinhalt, das geht nicht anders, da die Vorlage nicht größer als der anzuzeigende Inhalt ist, aus dem man sich passende Auschnitte aussuchen kann.
      Gruß
      Andy W
    • Bei 3D-Kinofilmen gäbe es durchaus eine Möglichkeit, die fürs Heimkino anzupassen: Man muß die beiden Teilbilder bei der Wiederbage relativ zueinander verschieben. Im Allgemeinen muß man sie etwas weiter auseinander schieben, bis weit entfernte Objekte im Hintergrund ("im unendlichen") auf der eigenen Leinwand wieder Augenabstand haben. Vorher ist dieser Abstand kleiner, da sie auf der großen Kinoleinwand Augenabstand haben und nun das Bild verkleinert ist. Das funktioniert ganz ohne Bildinhaltsanalyse und neuer Bildsynthese,

      Da bin ich anderer Meinung.

      Klar kannst du bei kleinerer Wiedergabe Punkte in der Ferne auf Augenabstand schieben. Damit verschieben sich ALLE Objekte nach hinten (was allerdings fast nicht wahrnehmbar ist, wenn man das mit dem STPM experimentiert).

      Objekte, die ursprünglich deckungsgleich waren, also in LW-Ebene wahrgenommen wurden sind durch die Verschiebung nicht mehr deckungsgleich - sie erscheinen nun hinter der LW-Ebene (auch das fällt aber nicht so auf). Was man allerdings wahr nimmt ist eine insgesamt reduzierte Bildtiefe, Stichwort "Puppenstube".

      Unsere Wahrnehmung trickst und kompensiert ziemlich viel - und so halte ich generell einen fürs Kino produzierten Inhalt auch im HK für gerade noch genießbar. Nur am Fernseher - da ist das dann wirklich nicht mehr schön.

      Die Frage, ob man Objektive parallel ausrichtet oder auf einen Punkt zusammen-schielend halte ich für akademisch. Die Trapezverzerrung ist zu gering, als dass sie stört (Ausnahme: Nah/Makrobereich).
    • Hallo,
      natürlich sind Objekte, die in der Kinoversion auf der Leinwandebene waren (Fensterweite) dann hinter der kleineren Leinwand. Aber die ist ja auch viel näher als die Kinoleinwand. Die absolute Entfernung des Objektes bleibt gleich, im Heinkino wäre das Objekt so weit hinter der Leinwand wie die echte Kinoleinwand auch entfernt wäre.

      Geometrisch kann man sich das Ganze so vorstellen: Die Leinwand ist ein Fenster, der Beobachter sitzt in Fensterweite davor. Jeder Objektpunkt wird gedanklich mit einer Geraden mit dem Auge (bei Stereobildern je Teilbild mit jeweils rechtem und linkem Auge) verbunden. Dort, wo die Gerade das Fenster durchstößt, ist der Punkt im Bild. So funktioniert Raytracing und so funktioniert auch jede Kamera, nur daß der Film hinter dem Augpunkt ist und auf dem Kopf steht. Wäre die Brennweite gleich der Fensterweite, wäre das Bild auf dem Film genauso groß wie im Fenster vorne. Bei 3D-Aufnahmen hat man zwei Augpunkte, aber beide Male das gleiche Fenster. Nun denke Dir ein kleineres Fenster, das näher am Zuschauer ist, so daß der Blickwinkel der gleiche ist. Die Teilbilder sind exakt die gleichen wie vorher, nur stärker seitlich versetzt, da die beiden Augen näher am kleineren Fenster sind, der Augenabstand aber genau so groß blieb.

      Bei der Verschiebung der Teilbilder der Kinofassung, wandert natürlich alles nach hinten, aber die Objekte sind im Kino ja auch fast alle weiter weg als die Heimkinoleinwand zuhause. Objekte, die im Kino näher sind (das war. z.B. in der Schlußszene im Disneyworld der Fall), wären auch im Heimkino vor der Leinwand, nur nicht so extrem, denn die absolute Entfernung bleibt gleich.

      Es ist ziemlich schwer, das nur mit Worten zu erklären, ich hoffe, es war wenigstens etwas verständlich. Aber mach mal Zeichnungen, so wie in Deinem ersten Posting, eine Szene mit mehreren Objekten, ein Augenpaar, aber zwei Leinwandebenen in unterschiedlicher Entfernung. Die Teilbilder sind auf beiden gleich, bis auf die proportionale Bildgröße abhängig davon, wie weit die Leinwand vom Zuschauer entfernt ist (Strahlensatz) und eben um ein anderes Maß versetzt zueinander.
      Gruß
      Andy W
    • Die absolute Entfernung des Objektes bleibt gleich, im Heinkino wäre das Objekt so weit hinter der Leinwand wie die echte Kinoleinwand auch entfernt wäre.

      Das heißt, die absolute Entfernung von Objekten ändert sich nicht? Folglich auch nicht die Differenz zwischen absoluten Entfernungen, also z.B. die scheinbare Tiefe eines Objektes?

      Eher nicht (ich habe gerade keine Zeit mir das genau zu überlegen, würde aber spontan sagen, dass die Tiefenwahrnehmung im Vergleich zur LW-Breite überproportional sinkt).

      Aber: Selbst wenn die Tiefe gleich bleiben würde, die Breite und Höhe der Objekte ist im HK kleiner. Das heißt die Proportion "2D-Größe" (Breite und Höhe) zu "Tiefe" stimmt nicht mehr. Ein Quader, der im Kino auf der 15m Leinwand mit B x H x T = 2 x 2 x 2m abgebildet wird, erscheint auf er 3m Leinwand mit B x H x T = 0.4 x 0.4 x 2m.

      Abgesehen davon, dass meinem Versändnis nach die absoulte Entfernung (Tiefe) NICHT erhalten bleibt, wäre das eine unnatürliche Veränderung der Proportionen zwischen 2D-Größe und Tiefe.
    • Hallo,
      ja, es ist tatsächlich so, daß auch die absoluten Tiefendifferenzen gleich bleiben. Es ist eben im Heimkino vieles mehr hinter der Leinwand als im Kino. Und was den Quader angeht: er ist immer noch scheinbar 2*2*2m groß, aber weiter hinten. Auf der Leinwand ist dessen BIld kleiner, aber man sieht ihn auch in größerer Entfernung als die Leinwand. Ich habe das alles selber auch ausprobiert, einmal eine 3D Szene für mein Heimkino und die gleiche Szene für meinen PC-Monitor. Fensterweite in beiden Fällen 1.8-fache Bildbreite (Bildformat 16:9), nächstgelegenes Objekt etwa in Leinwandentfernung, beim PC-Monitor weit hinter der Bildschirmebene. Man guckt beim Monitor durch ein kleineres Fenster in die 3D-Welt, das Fenster ist aber so nahe, daß der Blickwinkel der gleiche ist. Auch beim PC-Monitor bleiben die Objekte scheinbar gleich groß - und eben auch gleich weit weg. Der einzige Unterschied, der bleibt, ist die andere Entfernung, auf die die Augen fokussieren müssen, im Heimkino ist das aber nicht mehr so viel anders als im großen Kino, beim PC-Monitor ist das ganz anders, weshalb dort das Betrachten insgesamt anstrengender ist. Es ist einfacher und entspannter, ein scheinbar nahes Objekt auf Leinwandentfernung zu fokussieren als ein scheinbar fernes Objekt im Hintergrund auf den nahen PC-Monitor zu fokussieren.

      Am besten löst man sich von der Vorstellung einer Kamera und stellt sie sich besser als ein Fenster vor dem Auge vor, wie beim Raytracing. Ist das Fenster genauso groß wie der Film und die Entfernung so groß wie die Objektivbrennweite, ist das auf das Fenster projezierte Bild identisch mit dem Bild auf dem Film, nur steht es im Film auf dem Kopf und ist hinter dem Augpunkt (der bei einer Kamera das optische Zentrum im Objektiv ist). Ist wie bei einer Lochkamera, die geometrisch auch nichts anderes tut als jede normale Kamera mit Objektiv.

      Ob man die Kameras zueinander neigt oder parallel läßt, ist bei einer großen Leinwand kein großer Unterschied, obwohl ich auf meiner Leinwand (1.85m breit, ca. 3.3m entfernt) beim direkten Vergleich (gleiche Szene, mit unterschiedlichen virtuellen Povray-Kameras gerendert) im direkten Vergleich einen leichten Unterschied bemerken kann, der Parallelblick mit Lensshift (versetzte Bildausschnitte) ist geringfügig entspannter anzusehen. Der Unterschied ist aber wirklich gering, mit zueinander geneigten Kameras geht es auch noch. Je weiter weg die Leinwand, desto geringer wird der Unterschied. Beim PC-Monitor (ca. 50cm breit, 90cm Betrachtungsabstand) ist der Unterschied jedoch viel stärker und fällt sofort auf, wenn man vergleicht, mit geneigten Kameras ist das Betrachten deutlich anstrengender als mit parallelen Kameras. Wohlbemerkt, die Lage der Objekte in den beiden Teilbildern ist jeweils die gleiche, nur bei geneigten Kameras sind die Teilbilder trapezverzerrt, beim linken Teilbild ist die llinke Bildhälfte vertikal etwas vergrößert und die rechte etwas verkleinert und umgekehrt.
      Gruß
      Andy W
    • Ich war heute mal wieder im Kino. Es lief "Thor 2" in 3D mit Polarisationsverfahren. Mal abgesehen davon, dass das Ghosting teilweise extrem störend war, hat sich in vielen Szenen ein Liliputismuseffekt eingestellt. Das waren allesamt sehr weitläufige Szenen (Bifröst, Raumschiffe, Städte usw.) , die normalerweise besonders Groß wirken. Durch übertriebe Parallaxen stellte sich jedoch der umgekehrte Effekt ein. Die ganze Landschaft wirkte wie ein kleines Modell. Das hat ungemein gestört und "Thor 2" war der erste Film, in dem mir das so aufgefallen ist.

      Sind euch schon öfters Filme aufgefallen, in denen der Größeneindruck durch 3D so verhunzt wurde?
    Abonnement verwalten