Die Auswirkungen der digitalen Projektion

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • FoLLgoTT schrieb:

      Man denkt sich eben, wenn die Frequenz ins Raster passt, gibt es keine Skalierungsfehler. Skalierungsfehler gibt es aber bei den anderen Frequenzen auch nicht, die Oberwellenstruktur ist nur ganz anders (man sieht im Burst ja sogar Schwebungen),
      Wie erklärst du die bei einer Skalierung sichtbaren Bildfehler auf der Leinwand, die bei nativer Bildwiedergabe nicht auftreten?
      Gruß
      George Lucas

      Mein HEIMKINO
      Lumière, 12 Plätze, 60 m³, Projektor: JVC DLA-NZ8, Leinwand: Screen Research ClearPix Ultimate Weiß, Lautsprecher: JBL 3678 (Front), KCS SR-10A (Surrounds/Top), KCS C -218-A THX (SUB), Receiver: Marantz SR7011, 4K-Player: Sony UBP-X800, Panasonic DP-UB824, Endstufen: 4x Crown XLS 402D, 1x Liker BST 930,
    • Ich versuche es noch mal grafisch zu verdeutlichen mit einem Beispiel aus dem Audiobereich. Das Prinzip ist für Video dasselbe nur eben in zwei Dimensionen anstatt einer.

      Unten sind zwei Sinussignale mit den Frequenzen

      1. = halbe Nyquistfrequenz (entspricht sich abwechselnde schwarze und weiße Pixels)
      2. = etwas niedriger als 1. (ungerader Teiler)

      zu sehen. Die kleinen Quadrate stellen die quantisierten Werte da, die Wellenform das rekonstruierte Signal. Es ist gut zu erkennen, dass beide Signale eine reine Sinusform aufweisen, obwohl die Samples völlig unterschiedlich angeordnet sind! Wenn man sich nun vorstellt, dass ein digitaler Projektor 1:1 die Samples darstellt, wird einem klar, warum die Bursts in Originalauflösung so Sch... aussehen. ;) Erst der Tiefpass rekonstuiert das Signal vollständig.
      Dateien
    • George Lucas schrieb:

      FoLLgoTT schrieb:

      Man denkt sich eben, wenn die Frequenz ins Raster passt, gibt es keine Skalierungsfehler. Skalierungsfehler gibt es aber bei den anderen Frequenzen auch nicht, die Oberwellenstruktur ist nur ganz anders (man sieht im Burst ja sogar Schwebungen),
      Wie erklärst du die bei einer Skalierung sichtbaren Bildfehler auf der Leinwand, die bei nativer Bildwiedergabe nicht auftreten?


      Hab ich doch mit mit dem von dir zitierten Satz. Die Oberwellen sind anders.
    • Hallo Leute!

      Auch wenn ich kein Experte bin und mich mit Signaltheorie nicht wirklich auskenne, habe ich doch einige Zeit mit Grübeln, Nachdenken und "Verdauen" der hier getroffenen Aussagen verbracht und möchte mein Verständnis der Dinge hier kurz zur Diskussion stellen.

      1.) Meinem Verständnis nach geht es nicht darum, Informationen wieder herzustellen, die nicht mehr im Signal enthalten sind, d.h. die oberhalb der Grenzfrequenz liegen, sondern "nur" darum, die höherfrequenten Signale besser darzustellen.

      Beispiel: Es ist nicht möglich (dadurch, dass das Signal keine Informationen/Frequenzen oberhalb der Nyquist-Frequenz mehr enthält) aus einem 100x100 Pixeln großem Bild/Video der Mona Lisa ein 4k großes Bild/Video zu erzeugen, dass die feinsten Risse und Oberflächenstrukturen der Leinwand enthält. (Oder ein Beispiel aus diversen Filmen, in denen aus einem Video einer Überwachungskamera das Nummerschild soweit vergrößert wird, dass man erkennen kann, ob es mit Kreuz- oder Torxschrauben befestigt wurde.)

      Vielmehr geht es darum, dass Aliasing Effekte, die vor allem durch einen fehlenden Tiefpass Filter entstehen, zu mildern, in dem das ursprüngliche Signal bis zur Nyquist-Frequenz wieder komplett und 100% rekonstruiert wird, erneut mit höherer Frequenz abgetastet wird, d.h. jetzt mit 2k, 4k oder auch 1,975634k :) , um durch Interpolation/Filtermethoden einen Tiefpass-Effekt zu erzeugen.

      Habe ich das soweit richtig verstanden?

      2.) In dem Ursprungspost wurde der Sinus immer "höherfrequenter". Ich gehe davon aus, dass die Freuqnz nur bis zu der max. darstellbaren Grenzfrequenz erhöht wurde, denn das mit dem Überschreiten der Nyquistfreuqenz eine Rekonstruktion nicht mehr möglich ist, da Informationen darüber fehlen ist klar. (Siehe Punkt 1.)

      3.) Bei FullHD Material ist der fehlende Tiefpass entweder gar kein, oder nur kaum ein Problem, da mit zunehmeder "Winzigkeit" der Pixel und einem entsprechenden Sitzabstand die Auflösungsfähigkeit des Auges unterschritten wird und damit ein "biologischer" Tiefpass greift.

      Wenn ich das so richtig verstanden habe, dürfte bei zukünftigen, noch höher aufgelösten Formaten des Tiefpassproblem keins mehr sein, oder irre ich da?

      4.) Was 4k Projektoren für das Kino angeht: Bei Auflösungen von 2k bzw. 4k hat man die praktische Auflösung einer 35mm Analogkopie erreicht, d.h. auf dem Negativ ist auch nicht mehr Information enthalten. (Quelle Wiki und eine leider nicht mehr aufzufindende Webseite, die sich mit dem Auflösungsvermögen von 35mm Fotonegativ und den Profi-Digi Fotoapparaten Marke Canon 1D/1Ds Mark.. und Co. beschäftigt).
      4k Projektoren machen auch entsprechend Sinn, da es in der DCI Norm ebenfalls eine 4k Definition gibt, ob man 4k Projektoren mit dem Hintergedanken an Upscaling gebaut hat, ist mir nicht bekannt, wahrscheinlich eher nicht.

      5.) Das von George Lucas gebrachte Beispiel mit der Skalierung für Anamorphoten kann ich gut nachvollziehen, die Erklärung, warum das Interpolieren auf "ungerade" oder "krumme" Pixel kein Problem darstellen soll, habe ich nicht ganz verstanden.

      In der Praxis sieht man durchaus Probleme bei einer solchen Skalierung, egal, ob mit Photoshop und diversen Methoden hochskliert wird, ob ein TFT nicht mit seiner nativen Auflösung betrieben wird, oder auch der von George Lucas genannte Fall.

      Theoretisch sollte es allerdings nach der Signaltheorie möglich sein, das 100% wiederhergestellte Signal mit einer neuen Zielauflösung abzutasten, soweit folge ich Elmar.

      Was ist aber der Unterschied zwischen Theorie und Praxis?
      Vielleicht könnte es noch jemand in anderen Worten darstellen?

      Viele Grüße!
    • HeimkinoBeginner schrieb:


      Habe ich das soweit richtig verstanden?


      Ja, das ist alles korrekt. :)

      Wenn ich das so richtig verstanden habe, dürfte bei zukünftigen, noch höher aufgelösten Formaten des Tiefpassproblem keins mehr sein, oder irre ich da?


      Das Problem bleibt zwar immer bestehen, aber die Auswirkungen werden für uns Menschen immer geringer. Schon bei FullHD ist das Aliasing praktisch kaum noch sichtbar.

      5.) Das von George Lucas gebrachte Beispiel mit der Skalierung für Anamorphoten kann ich gut nachvollziehen, die Erklärung, warum das Interpolieren auf "ungerade" oder "krumme" Pixel kein Problem darstellen soll, habe ich nicht ganz verstanden.

      In der Praxis sieht man durchaus Probleme bei einer solchen Skalierung, egal, ob mit Photoshop und diversen Methoden hochskliert wird, ob ein TFT nicht mit seiner nativen Auflösung betrieben wird, oder auch der von George Lucas genannte Fall.


      Das Problem ist, dass die Zielauflösung auf einem TFT auch wieder mit Aliasing dargestellt wird. Die Oberwellen sind dann anders verteilt, daher sehen z.B. die Bursts von anderen Frequenzen unregelmäßiger aus als vorher. Es gibt aber auf einem pixelbasierten Anzeigegerät immer Frequenzen die "schlecht" aussehen, da ja alle Frequenzen bis zur Bandgrenze im Signal vorkommen können. Wäre ein Tiefpass vorhanden, wäre es völlig egal, auf welche krummen Faktoren man skaliert (guter Skalierungsalgorithmus vorausgesetzt). Die Bursts jeder Frequenz wären sauber und oberwellenfrei.

      Eine weitere Irreführung ist die Darstellung des Windows-Desktops. Hier ist es aufgrund hoher Lesbarkeit eher erwünscht, die Oberwellen voll darzustellen (obwohl heutzutage Schrift auch mit Anti-Aliasing gerendert wird). Das heißt die Kanten sollen hart sein. Wenn die höchste Frequenz unregelmäßige Oberwellen hat, fällt das im Gegensatz zum Film also sofort auf.
    • Hi FoLLgoTT!

      Danke für Deine ausführliche Antwort:

      FoLLgoTT schrieb:

      5.) Das von George Lucas gebrachte Beispiel mit der Skalierung für Anamorphoten kann ich gut nachvollziehen, die Erklärung, warum das Interpolieren auf "ungerade" oder "krumme" Pixel kein Problem darstellen soll, habe ich nicht ganz verstanden.

      In der Praxis sieht man durchaus Probleme bei einer solchen Skalierung, egal, ob mit Photoshop und diversen Methoden hochskliert wird, ob ein TFT nicht mit seiner nativen Auflösung betrieben wird, oder auch der von George Lucas genannte Fall.


      Das Problem ist, dass die Zielauflösung auf einem TFT auch wieder mit Aliasing dargestellt wird. Die Oberwellen sind dann anders verteilt, daher sehen z.B. die Bursts von anderen Frequenzen unregelmäßiger aus als vorher. Es gibt aber auf einem pixelbasierten Anzeigegerät immer Frequenzen die "schlecht" aussehen, da ja alle Frequenzen bis zur Bandgrenze im Signal vorkommen können. Wäre ein Tiefpass vorhanden, wäre es völlig egal, auf welche krummen Faktoren man skaliert (guter Skalierungsalgorithmus vorausgesetzt). Die Bursts jeder Frequenz wären sauber und oberwellenfrei.

      Eine weitere Irreführung ist die Darstellung des Windows-Desktops. Hier ist es aufgrund hoher Lesbarkeit eher erwünscht, die Oberwellen voll darzustellen (obwohl heutzutage Schrift auch mit Anti-Aliasing gerendert wird). Das heißt die Kanten sollen hart sein. Wenn die höchste Frequenz unregelmäßige Oberwellen hat, fällt das im Gegensatz zum Film also sofort auf.
      Ok, dass kann ich soweit nachvollziehen. Allerdings ist mir zwischenzeitlich noch ein anderer Gedanke gekommen:
      Wie ja schon vorher geschrieben wurde, muß für das erneute Samplen für die neue Zielauflösung das ursprüngliche Signal wieder hergestellt werden.

      Entstehen aber Skalierungsfehler/-Artefakte zusätzlich zu den von Dir genannten Mechanismen nicht auch daduch, dass das Originalsignal eben nur mit unendlichem Aufwand zu 100% wiederhergestellt werden kann (lt. Wiki) und sich mit endlichem Aufwand "nur" beliebig dem Original angenähert werden kann?
      Will sagen: Mit den heutigen Methoden, d.h. Rechenleistungen, Algorithmen usw. komme ich nur zu 9x% an das Original heran, d.h. es fehlen Infos. Wenn jetzt dieses "unvollständige", abweichende Original-Signalderivat erneut abgetastet wird, entstehen natürlich "Fehler", bzw. sichtbare(?) Abweichungen zum Original.

      Hast Du eine Einschätzung, wie nah man mit den heutigen Methoden an 100% kommt?

      Was die Schärfe der Desktop-Schriften angeht:
      Anti-Aliasing Maßnahmen machen meiner Meinung nach erst ab einer bestimmten Auflösung Sinn, sonst wird es zu unscharf fürs Auge, bzw. die Anti-Aliasing Maßnahmen werden zu sichtbar, wenn Du verstehst, was ich meine.
      Gleiches gilt ebenfalls für Ditherung, dass ja teilweise genutzt wird, um die 8Bit Grenze der RGB Ausgabe zu "sprengen". Allerdings werde ich beim Begriff "Ditherung" immer hellhörig, da ich das aus den Anfangstagen der Grafikkarten immer mit einem sichtbaren Auflösungsverlust verbinde und das früher absoluter Mist war.

      Dürfte aber bei FullHD nicht wirklich zu sehen sein, und bei bewegten Filmbildern wahrscheinlich sowieso nicht.

      Viele Grüße
    • HeimkinoBeginner schrieb:

      Wie ja schon vorher geschrieben wurde, muß für das erneute Samplen für die neue Zielauflösung das ursprüngliche Signal wieder hergestellt werden.

      Entstehen aber Skalierungsfehler/-Artefakte zusätzlich zu den von Dir genannten Mechanismen nicht auch daduch, dass das Originalsignal eben nur mit unendlichem Aufwand zu 100% wiederhergestellt werden kann (lt. Wiki) und sich mit endlichem Aufwand "nur" beliebig dem Original angenähert werden kann?
      Will sagen: Mit den heutigen Methoden, d.h. Rechenleistungen, Algorithmen usw. komme ich nur zu 9x% an das Original heran, d.h. es fehlen Infos. Wenn jetzt dieses "unvollständige", abweichende Original-Signalderivat erneut abgetastet wird, entstehen natürlich "Fehler", bzw. sichtbare(?) Abweichungen zum Original.


      Das ist richtig. Für einen HeimkinoBeginner steigst du aber auf einem sehr hohen Niveau ein. ;)

      Den perfekten Skalierungsalgorithmus gibt es natürlich nicht. Wir haben also immer einen Kompromiss aus verschiedenen Randeffekten. Meist ist es ein Abwägen zwischen Bandbreite/Aliasing und Ringing. Man kann z.B. die bekannten Algorithmen in etwa so einteilen:

      • Point Sampling (Box-Filter): sehr starkes Aliasing (ändert sich mit der Zielauflösung nicht). Kein Ringing.
      • Bilinear: schlechte Bandbreite, mittleres Aliasing. Kein Ringing.
      • Bikubisch: mittlere Bandbreite, mittleres Aliasing. Etwas Ringing.
      • Lanczos/Spline: gute Bandbreite, wenig Aliasing. Starkes Ringing.


      Wobei man das Ringing im Film praktisch nicht sieht, weil die hohen Frequenzen m Film kaum vorkommen. Bei der Skalierung von Testbildern oder des Windows-Desktops fällt es dagegen sofort auf.

      Hast Du eine Einschätzung, wie nah man mit den heutigen Methoden an 100% kommt?


      Nein, leider nicht. Ich wüsste auch nicht, wie man das in Zahlen ausdrücken sollte.

      Was die Schärfe der Desktop-Schriften angeht:
      Anti-Aliasing Maßnahmen machen meiner Meinung nach erst ab einer bestimmten Auflösung Sinn, sonst wird es zu unscharf fürs Auge, bzw. die Anti-Aliasing Maßnahmen werden zu sichtbar, wenn Du verstehst, was ich meine.


      Ja, es ist erstmal ungewohnt, wenn man Schrift ohne Anti-Aliasing von z.B. Widnows 2000/XP gewohnt ist (bei denen das optional war) und dann auf Vista/7 oder MacOS wechselt. Es ist etwas schwieriger zu lesen, aber insgesamt finde ich es doch schöner. Textverarbeitungsprogramme machen das ja auch schon ewig so.

      Gleiches gilt ebenfalls für Ditherung, dass ja teilweise genutzt wird, um die 8Bit Grenze der RGB Ausgabe zu "sprengen". Allerdings werde ich beim Begriff "Ditherung" immer hellhörig, da ich das aus den Anfangstagen der Grafikkarten immer mit einem sichtbaren Auflösungsverlust verbinde und das früher absoluter Mist war.


      Oh ja, ich erinnere mich auch noch an meine ersten Bildverabreitungen, bei denen man die Bilder auf 16 oder 256 Farben dithern musste. Schön war das nicht! ;)
      Wir hatten das Thema ja erst kürzlich. Zumindest bei der Rampe ist das kein Problem. Bei komplexeren Bildern ist mir ein Auflösungsverlust auch noch nicht aufgefallen.
    • Hallo FoLLgoTT!

      FoLLgoTT schrieb:

      Das ist richtig. Für einen HeimkinoBeginner steigst du aber auf einem sehr hohen Niveau ein. ;)
      Danke für die Blumen, da werde ich ja gleich rot! :)
      Ich versuche nur, soviel wie möglich von den Experten hier zu lernen und meine eigene Unwissenheit zu verringern. :kratz:

      Wie Du hier: madVR - Der neue Referenzrenderer? (ganz unten) sehen kannst, wurschtel ich mich teilweise noch durch die Grundlagen, wenn Du mir in dem Thread ein wenig auf Sprünge helfen könntest, wäre das Klasse (dass Du den "Fuchs" meintest, habe mittlerweile auch ich kapiert :) ).

      FoLLgoTT schrieb:

      Den perfekten Skalierungsalgorithmus gibt es natürlich nicht. Wir haben also immer einen Kompromiss aus verschiedenen Randeffekten. Meist ist es ein Abwägen zwischen Bandbreite/Aliasing und Ringing. Man kann z.B. die bekannten Algorithmen in etwa so einteilen:
      Jetzt wird mir mittlerweile auch klar, warum manche auf teure Scalerlösungen setzen! Ich habe heute mal mit madVR herumgespielt und verschieden Methoden ausprobiert. Man sieht tatsächlich Unterschiede, auch wenn diese manchmal, je nach Filter/Methode, marginal sind.

      Die praktische Frage bleibt natürlich immer, was bleibt davon in der Praxis über, d.h. ab wann sieht man keinen Unterschied mehr, bzw. werden die Verbesserungen so marginal, dass der Aufwand/die Kosten sich nicht lohnen.

      Viele Grüße
    Abonnement verwalten