Werbung Alphaluxx

Die Auswirkungen der digitalen Projektion

    Das Forum ist zwingend auf Spenden angewiesen, um die Betriebskosten aufzufangen, nachdem immer weniger Banner geschaltet werden.
    Wem die Plattform etwas wert ist, spendet bitte hier: KLICK: Spenden
    Dieser Hinweis wird erst ausgeblendet, wenn das Monatsziel der Spenden erreicht ist.

    • Die Auswirkungen der digitalen Projektion

      In Zeiten von digitalen Anzeigegeräten wie D-ILA/DLP/LCD/Plasma usw. fragt sich kaum noch einer, ob das alles überhaupt grundsätzlich richtig so ist, was dort angezeigt wird. Oft liest man Floskeln wie:


      Es ist ja alles digital, also gibt es keine Verluste.

      Die Daten des Mediums sollten ohne Veränderung angezeigt werden.

      Es ist am besten, wenn der Projektor das Bild mit der Auflösung des Mediums darstellt.



      Das ist alles falsch! :nono:


      Richtig ist:

      Pixelbasierte Anzeigegeräte führen keine vollständige Rekonstruktion des Bildsignals durch, weil ihnen der Tiefpass fehlt. Harte Pixelübergänge ergeben Aliasing.

      Das Bild mit der Auflösung des Mediums darzustellen, ist so mit das schlechteste, was man machen kann. Je höher die Zielauflösung und je besser die verwendete Skalierung, desto näher kommt das Bildsignal dem analogen Pendant.

      Es treten grundsätzlich digitale Rundungsfehler Verluste auf. Z.B. bei der immer notwendigen Farbraumtransformation von YCbCr nach RGB. Dies ist eine Matrixmultiplikation mit Gleitkommazahlen. Die Ergebnisse müssen aber Ganzzahlen sein. Viel stärker sichtbar sind aber, dass Fehler hinzukommen, die durch den fehlenden Tiefpass entstehen.



      Um das Obige, das sicher schwer nachvollziehbar ist, besser zu verdeutlichen, habe ich ein paar Visualisierungen eines H-Sweeps mittels eines Waveformmonitors durchgeführt. Ich hoffe, mir gelingt mal eine etwas weniger technische Darstellung. Das fällt mir meist gar nicht so leicht. :)


      Der H-Sweep ist ein Gleitsinus. Also ein Sinus, der mit der Ausbreitung (logarithmisch) seine Frequenz erhöht. Die Ausbreitungsrichtung ist hierbei die X-Koordinate, also horizontal. Die Helligkeit stellt die Amplitude dar. Der 0-Wert der Sinuskurve ist das mittlere Grau. Die Helligkeit verändert sich also sinusförmig um diesen Grauwert.

      So sieht das Testbild aus (die Balken oben können ignoriert werden):




      Ein Waveformmonitor stellt nun die kumulierte Helligkeit aller Zeilen als Graph dar. Man kann sich das so vorstellen, dass die Helligkeit des Bildes dem Betrachter je nach Wert entgegenkommt oder entfernt. Der Waveformmonitor nimmt nun das Bild und dreht es um 90° an der Unterkante. Nun sieht man den Sinus des H-Sweeps wie man ihn auch aus der Schule kennt. Die Höhe des Bildes ist somit nicht mehr sichtbar. :)
      Die Erklärung ist zwar nicht wissenschaftlich korrekt, aber zur Vorstellung sicher geeignet. Der hier verwendete Waveformmonitor ist Waveform() in Avisynth, also softwarebasiert. Die horizontalen Linien unten und oben markieren die Grenzen der gültigen Videolevels 16 und 235.

      So sieht der H-Sweep in der Originalauflösung von 720x480 (DVD NTSC) aus:

      720x480 (unskaliert)


      Hmm, schön ist das aber nicht, je weiter man nach rechts blickt. Eigentlich sollte die Amplitude so wie hier immer gleich sein und sich nur die Frequenz verändern. Das Problem liegt darin, dass das Bild mit 720 Pixeln dargestellt wird und nicht korrekterweise als analog gewandelte Wellenform!
      Es fehlt der Tiefpass nach dem Panel. Die Folge der Pixelkanten ist Aliasing, welches sich mit dem eigentlichen Nutzsignal überlagert und zu Schwebungen führt. Kurz gesagt: die Rekonstruktion ist unvollständig!

      Nun schauen wir uns mal an, wie die Wellenform aussieht, wenn wir sie auf eine höhere Auflösung skalieren. Das Skalieren ist nichts anderes als ein Resampling (Neuabstastung) wie man es aus dem Audio-Bereich kennt. Nur, dass es bei Bildern für jede Dimension (unabhängig voneinander) einmal durchgeführt werden muss. Uns interessiert hier für die Messung aber nur die Horizontale.


      1024x576 (Lanczos 10)



      1280x720 (Lanczos 10)



      1920x1080 (Lanczos 10)



      3840x2160 (Lanczos 10)



      Es ist leicht erkennbar, dass mit höherer Zielauflösung die Amplitude des Gleitsinus immer gleichmäßiger wird. Selbst die noch utopischen 3840 Pixel horizontal bringen noch einen kleinen Vorteil gegenüber "FullHD", während 1280 noch ziemlich schrecklich aussehen.
      Nun wurde bei diesen Messungen Lanczos mit 10 Taps als Skalierungsalgorithmus eingesetzt. Dieser besitzt einen sehr guten Frequenzgang, produziert aber auch mit einer höheren Anzahl an für die Berechnung der Zwischenwerte einbezogenen Pixels (Taps) mehr oder weniger starke Überschwinger (Ringing). Diese treten aber praktisch nur bei sehr hohen Frequenzen auf, die in realen Film-DVDs/Blu-rays kaum auftreten. In Testbildern sind sie dagegen sehr deutlich sichtbar. Man sollte sich also davon nicht täuschen lassen. In Wirklichkeit ist das Ringing des Mediums meist um Faktoren stärker.

      Algorithmen wie Lanczos 10 sind aber meist nicht in den Projektoren implementiert. Oft kommt bikubische Skalierung zum Einsatz.


      1280x720 (bikubisch)



      1920x1080 (bikubisch)



      3840x2160 (bikubisch)



      Insgesamt sieht es hier deutlich schlechter aus. Die Verbesserungen nehmen auch mit höherer Aufllösung nur wenig zu. Nahezu perfekt ist es nie. Ein gewisses Maß an Aliasing bleibt also immer erhalten. Ich denke, es ist deutlich geworden, dass es nicht nur aus Sicht der Systemtheorie notwendig ist, die Zielauflösung möglichst nach oben zu schrauben. Zum Glück sind unsere Augen in ihrer Auflösung begrenzt, so dass Blu-ray auch pixelbasiert 1:1 dargestellt sehr gut aussehen kann.

      Noch eine kleine Bemerkung: es ist immer wieder interessant, dass sich wirklich niemand Musik ohne Tiefpass anhören würde (Aliasing erzeugt Kratzen und Rauhigkeit). Beim Bild wird dies jedoch meist ohne Murren hingenommen. :silly:

      Aber wie sieht man Aliasing eigentlich im Filmbild? Meist macht es sich durch Treppchen an schrägen Kanten bemerkbar. Sehr gut zu sehen ist es aber vor allem in Bewegung. Das in die Ferne fliegende Star-Wars-Logo ist ein sehr gutes Beispiel. Je kleiner es wird, desto mehr krisselt es, wenn Aliasing vorhanden ist. Mit einem guten Skalierungsalgorithmus und einer hohen Zielauflösung ist nur wenig Krisseln sichtbar.
      Ein anderes gutes Beispiel ist die DVD von "My Fair Lady", die sehr detailiert daher kommt. Durch die hohen Details ist Aliasing recht stark sichtbar. Mit Lanczos 10 ist dies im Vergleich zu bikubischer Skalierung oder Lanczos 2 praktisch verschwunden. Hier zu sehen ist ein kleiner Ausschnitt auf 1920x1080 hochskaliert. An der Innenkante des Spiegels sind die Treppchen erkennbar. Leider sieht man das in bewegten Bildern deutlich stärker. Auch das Mehr an Details ist mit dem besseren Skalierungsalgorithmus sichtbar, wenn auch längst nicht so stark wie die verminderten Treppchen.

      Lanczos 2
      Aliasing_2_Taps.png

      Lanczos 10
      Aliasing_10_Taps.png


      So sieht das dann im Multiburst (z.B. Peter Finzel) aus:

      mit Schwebungen/Aliasing
      Burst_schlecht.png

      ohne Schwebungen/Aliasing
      Burst_gut.png


      Interessant ist auch die Betrachtung von Schärfealgorithmen mit dem Waveformmonitor. Eine relativ leichte Schärfung mit der Unschärfemaske in FFDSHOW führt bei höheren Frequenzen schon zu einer Überschreitung der gültigen Videolevels und sogar zum Clipping! :wow:

      Leichte Schärfung

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von FoLLgoTT ()

    • Nabend,

      sehr interessant deine Ausführungen.
      Genau das habe ich in vielen Konstellationen im digitalen Segment zu Anfang stark vermißt, die Tiefpassfähigkeit.

      Doch genau daran wird verstärkt gearbeitet, wie ich in einigen High End PJ´s ja bereits selbst erfahren bzw. auch nutze.

      Das Upsampling und die per Programmierung angepaßten Verhältnismäßigkeiten (dadurch auch weniger Rundungsfehler) führen dazu, dass trotz höchster Abbildungsschärfe, das Bild nicht zu digital wirkt. Gerade wenn die Leinwände größer werden kommen viele Kleinigkeiten zum Vorschein, die das Bild eindeutig digital machen.

      Per Upscaling (höher in Bit gerechnet UND ausgewertet) und anscheinend trickreicher Antialasing Scaling, sieht das bereits deutlich überzeugender aus, gerade wenn die unteren IRE Stufen im Bild überwiegen.
      Auch verschwinden zahlreiche Überschwinger und Restkantenbetonung in Hintergründen, sodass ein Filmkorn auch real rüber kommt, analog zur CRT Technik.
      Ich hatte das mal beschrieben mit "Knackescharf" mit weichen Übergängen und sauberer Kantenabgrenzung ohne Clipping beschrieben.
      Insbesondere auch die reine Farbauflösung wird so auch genauer eingehalten, was dann zu sauberster Graubalance in allen IRE Stufen führen kann.

      Ein weiteres Feld ist die Einprogrammierung von höh. Farbnormen, über der eigentlichen Video Norm oder HD (REC 709) Farbraum, ähnlich wie im Kino. Aber das dann gezielt implementiert ohne den Zielfarbraum grundsätzlich zu verändern, also nur die Farbwerte in Sättigung und Zeichnung erhöhen, die im Bild zuvor bedingt durch die Norm beschnitten werden. Quasi eine Analyse für gezielte Farbtöne (Neon oder ander leucht. Mischfarben).
      Das Ganze ist nur möglich in höh. Bitraten um 16 Bit (erfahren) zu rechnen. Genauso können damit auch in den unteren IRE Werte mehr/weiter differenziert werden, was dann dem Ideal (unendlich theoretisch s. CRT) deutlich näher kommt, aber eben mit dem deutlich höh. Inbildkontrast, was ja jetzt schon in einigen High End Geräten Alltag ist.

      Ich bleibe da weiter am Ball und finde es prima, dass jetz auch techn. mehr untermauerte Argumente kommen.

      ANDY
      Heimkino Kurzübersicht zum Schrein
      "Lebenskunst ist die Fähigkeit auf etwas Notwendiges zu verzichten, um sich etwas Überflüssiges zu leisten."

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von ANDY ()

    • Guten Morgen.

      Vielen Dank für Deine Ausführungen und die Arbeit, welche Du darin investiert hast.
      Die Erläuterungen helfen einem sehr, das "wie und warum" hinter der Aussage "fehlender Tiefpass" zu verstehen. Während ich vorher zwar ein grundsätzliches Verständnis der Zusammenhänge hatte, fügt sich mit Hilfe Deiner Erklärung alles langsam für mich zu einem logischen Gesamtbild zusammen. Vielen Dank dafür!

      Eine Anmerkung hätte ich jedoch noch: Die Vorteile einer höheren Auflösung ergeben sich natürlich nur so stark, wen die Skalierung auch sauber ausgeführt wird. Ich denke, hier ist das größte Problem zu finden. Richtig gute Scaler, welche an der Grenze zur Fehlerfreiheit arbeiten, sind einfach immernoch richtig teuer (wenn auch nichtmehr so teuer wie früher)





      Original von ANDY

      Genau das habe ich in vielen Konstellationen im digitalen Segment zu Anfang stark vermißt, die Tiefbassfähigkeit.



      :silly: :silly: :silly: :silly:


      Gruß,

      Andi

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Dresi ()

    • Der wunderschöne Skalierungs- & Tiefpassthread von damals ist ja leider mal hopps gegangen.

      Nils, auch von mir vielen Dank, dass du wieder mal mit Irrtümern aufräumst. Die Darstellung der Amplitude ist vermutlich auch leichter zu verstehen, als die Darstellung als Frequenzspektrum.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Elmar ()

    • Ja Danke Nils für diesen Thread, nun da wo er hingehört in der Expertenrunde - hoffentlich wird er nicht wieder zugemüllt.

      Gibt es die Chance das Du das Avisynth Script veröffentlichst welches Du verwendet hast um selber das ganze nachvollziehen zu können und vielleicht selber den ein oder anderen Skalierungsalgorithmus unter die Lupe zu nehmen ?

      Btw schön zu sehen das selbst für DVD Auflösung erst bei ca. 5facher Auflösung das Optimum ereicht zu sein scheint - freue mich schon auf die ganzen Diskussionen wenn es 4k Beamer für den Heimbereich gibt für was die nütze sind wenn doch Blu-rays so schön 1:1 auf die FullHD Panels passen ;)
    • @alle
      Danke! :)

      Ich weiß, ich wiederhole dieses Thema andauernd. Einige nervt es sicher schon. Diese Art der Darstellung mit dem Waveformmonitor scheint mir allerdings nicht sehr verbreitet zu sein.

      Ich finde es schade, dass es so wenige Vektorskope und Wavoformmonitore auf softwarebasis gibt. Diese Instrumente sind im Broadcastbereich ja gang und gäbe. Auf dem PC gibt es einige Plugins für Avisynth, die aber alle unterschiedliche Schwächen aufweisen. :(


      Original von Caspar
      Gibt es die Chance das Du das Avisynth Script veröffentlichst welches Du verwendet hast um selber das ganze nachvollziehen zu können und vielleicht selber den ein oder anderen Skalierungsalgorithmus unter die Lupe zu nehmen ?


      Ich kann gerade leider nicht nachschauen, aber es müsste dieses Plugin sein. Der Aufruf ist einfach waveform().

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von FoLLgoTT ()

    • Danke Nils für die Links, habe das eben mal nachgebastelt, das Script sieht so aus, hoffe da ist kein Fehler drinne:

      Quellcode

      1. ConvertToYUY2(ImageSource("H-sweep.png"))
      2. LanczosResize(1920, 1080, taps=10)
      3. waveform()
      4. ConvertToRGB24()
      5. ImageWriter("Lanczos10_", type="png")


      Btw das bei Lanczos immer erzeugte Ringing ist im roten Kreis zu sehen oder ?



      Gibt es Testbilder mit denen man dieses Ringing gut "erzeugen" kann (möglichst in verschiedener Stärke ?) und danach auch sichtbar machen mittels Waveform(), oder ähnlichem ? Ich habe eben mal dein H-sweep Bild durch alle möglichen avisynth scaler gejagt einfach um mal zu sehen was da so passiert, Ausgangsbild ist immer das 480p h-sweep von oben und Zielauflösung ist immer 1080p (einfach weil es heute wohl die gängigste Zielauflösung sein dürfte), die Waveform Bilder gibts hier (gezippt und heissen so wie der verwendete Scalingalgorithmus + Taps/etc.).
    • Original von Caspar
      Danke Nils für die Links, habe das eben mal nachgebastelt, das Script sieht so aus, hoffe da ist kein Fehler drinne:

      Quellcode

      1. ConvertToYUY2(ImageSource("H-sweep.png"))
      2. LanczosResize(1920, 1080, taps=10)
      3. waveform()
      4. ConvertToRGB24()
      5. ImageWriter("Lanczos10_", type="png")


      Ich habe waveform() direkt in FFDSHOW eingebunden und das Testbild der AVIA abgespielt. Aber so geht es natürlich auch. :)

      Btw das bei Lanczos immer erzeugte Ringing ist im roten Kreis zu sehen oder ?


      Ja. So ein Sprung wie auf dem Testbild kommt in Filmen aber auch nicht vor. Von daher würde ich dem nicht zu viel Bedeutung zusprechen. Interessanter ist es, Filmauschnitte zu finden, in denen man das zusätzliche Ringing sehen kann (meist bei Schrift oder ähnlichem).

      Gibt es Testbilder mit denen man dieses Ringing gut "erzeugen" kann (möglichst in verschiedener Stärke ?) und danach auch sichtbar machen mittels Waveform(), oder ähnlichem ?


      Der Sprung links ist schon sehr gut geeignet, um Ringing zu erzeugen. Man sieht es auch sehr gut im Bild. Andere Testbilder, die besser geeignet dafür wären, sind mir nicht bekannt.
    • Mal eine Frage: Digitale Fotokameras haben in der Regel ein optisches Tiefpassfilter vor dem Sensor.
      Das müsste doch bei einer digitalen Videokamera auch der Fall sein und bei einer digitalen Abtastung eines Filmes auch zur Anwendung kommen? Letzteres aber dann wohl für die Scannerauflösung. Frage ist was passiert beim Downscaling auf die Zielauflösung? Fehlt da dann ein Tiefpassfilter?

      Das Thema finde ich jedenfalls sehr interessant, den alten Thread kenne ich wohl nicht mehr.
    • Original von audiohobbit
      Das müsste doch bei einer digitalen Videokamera auch der Fall sein und bei einer digitalen Abtastung eines Filmes auch zur Anwendung kommen? Letzteres aber dann wohl für die Scannerauflösung. Frage ist was passiert beim Downscaling auf die Zielauflösung? Fehlt da dann ein Tiefpassfilter?


      Ja, ein Tiefpass sitzt immer vor einer Abtastung. Es dürfen vor der Abtastung keine Frequenzen oberhalb der Nyquistfrequenz (halbe Abtastfrequenz) vorkommen, weil sonst irreversibles Aliasing entsteht. Daher hat jeder Scanner und jede Kamera einen Tiefpass eingebaut, der die Auflösung des Bildes auf die Zielauflösung beschränkt.

      Beim Runterskalieren kommt es auf den verwendeten Algorithmus an. Point Sampling beispielsweise erzeugt Moirés ohne Ende, während bikubische Skalierung oder Lanczos wie ein Tiefpass + Neuabtastung wirken. Ich kann später noch Bilder reinstellen, die das verdeutlichen.
    • Hi FoLLgoTT,
      schönen Dank für die viele Arbeit.

      Trotzdem habe ich bei diesem Thema immer wieder Verständnisprobleme. Wahrscheinlich ähnliche wie andere Leute auch.
      Ich will einmal versuchen, diese zu formulieren. Vielleicht kannst Du mich (und natürlich andere) erleuchten.

      zunächst Audio

      Hier ist mir völlig klar, warum wir hier einen Tiefpass brauchen. Das Ziel ist es ja, das digital übertragene Signal wieder in ein analoges zu übertragen. Wird also ein Sinus von z.B. 12,3 kHz mit 48 kHz abgetastet bleiben für jede Periode des Sinus knapp 4 Punkte. Wenn wir die Digitalinformation durch einen D/A-Wandler ohne Filter schicken, kann ich nachvollziehen, dass das Ergebnis wirklich kein Sinus mehr ist. Nach dem Tiefpass ist es dann wieder einer. Wesentlich ist, dass unsere Ohren den zeitlichen Verlauf eines Signals hören und dass wir aus einem Analogsignal wieder ein Analogsignal machen wollen.

      Video

      In Deinem Beispiel hast Du als Vorlage einen Sinus mit variabler Frequenz gewählt. Dann hast Du ihn mit einem Raster von 720 Punkten pro Zeile digitalisiert und die Helligkeitsinformation der Rasterpunkte nebeneinander aufgetragen. Es wundert mich nicht, dass das grausam aussieht. Ich sehe auch ein, warum man z.B. bei der Herstellung einer DVD oder Blu-Ray mehr Aufwand treiben muss.

      Ich kann allerdings nicht nachvollziehen, warum der Mehraufwand irgendwo in meinem Wiedergabegerät sein soll. Ich stelle mir ganz naiv vor, dass ich eine Anzeige (z.B. Beamer) habe, die einzelne Pixel darstellt. Nehmen wir an 720x480 Pixel, um bei Deinem Beispiel zu bleiben. So ganz naiv stelle ich mir auch vor, dass ich im Idealfall die Information in einer Übertragung (z.B. von einer DVD) in der Form 720x480 Pixel erhalte. Für jedes Pixel des Displays gibt es also ein Pixel in der Übertragung. Ich setze dabei voraus, dass alle nötigen Filter bereits bei der Herstellung der DVD angewendet wurden. Warum also noch weitere Filter bei mir?
      Was ist daran falsch? Von der Bildveränderung durch Kompression möchte ich absehen.

      Ich kann Deinen Ausführungen in so weit folgen, dass ein Beamer mit 1920x1080 Pixeln ein ursprünglich in 720x480 Pixeln vorhandenes Bild besser darstellen kann (benutzte Pixel 1620x1080) als ein 720x480 Beamer. Ist das Deine Kernaussage? – Dann habe ich es verstanden.

      Nicht verstanden habe ich es, wenn mein Beamer mit 1280x720 Pixeln ein digital mit 1280x720 Pixeln übertragenes Bild zusätzlich filtern soll. In dem Fall setze ich wieder voraus, dass eine nötige Filterung bereits VOR der Übertragung bzw. Speicherung des Bildes erfolgt ist. Oder gibt es diese Filterung üblicherweise nicht?
      Mein Panasonic-Beamer mit (LCD, 1280x720) scheint tatsächlich das zugespielte Signal durch ein Filter zu schicken. Ich hatte einmal ein Testbild (Standbild, 1280x720) mit einzelnen hellen Zeilen gebastelt. Bei der Zuspielung via HDMI waren es keine einzelnen scharfen Zeilen mehr, sondern sie waren etwas verbreitert. Das hat mich irritiert, und ich empfand es als Bildverschlechterung. Overscan und Trapezkorrektur waren selbstverständlich ausgeschaltet.
      Gruß RoBernd

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von RoBernd ()

    • Original von RoBernd
      Oder gibt es diese Filterung üblicherweise nicht?


      Eine solche Filterung müsste nach meinem Verständnis NACH der digitalen / diskreten Domäne sein. Pixel/Panel sind noch diskrete Samples. Wenn bei Video auf der Wiedergabeseite digitaler Projektoren von "Filter" die Rede ist, würde ich ein optisches Element (oder ausreichend Betrachtungs-Abstand) erwarten.
    • Original von RoBernd
      Hier ist mir völlig klar, warum wir hier einen Tiefpass brauchen. Das Ziel ist es ja, das digital übertragene Signal wieder in ein analoges zu übertragen. Wird also ein Sinus von z.B. 12,3 kHz mit 48 kHz abgetastet bleiben für jede Periode des Sinus knapp 4 Punkte. Wenn wir die Digitalinformation durch einen D/A-Wandler ohne Filter schicken, kann ich nachvollziehen, dass das Ergebnis wirklich kein Sinus mehr ist. Nach dem Tiefpass ist es dann wieder einer. Wesentlich ist, dass unsere Ohren den zeitlichen Verlauf eines Signals hören und dass wir aus einem Analogsignal wieder ein Analogsignal machen wollen.


      Stimmt, allerdings hören wir Menschen nur sehr begrenzt zeitlich. Unser Ohr arbeitet eher wie ein Spektrumanalysator, der über eine gewisse Zeit integriert. Daher sind wir ja auch so wenig anfällig für Phasenverzerrungen. Die Oberwellen, die vom notwendigen Tiefpass entfernt werden, hören wir alledings sehr deutlich.


      In Deinem Beispiel hast Du als Vorlage einen Sinus mit variabler Frequenz gewählt. Dann hast Du ihn mit einem Raster von 720 Punkten pro Zeile digitalisiert und die Helligkeitsinformation der Rasterpunkte nebeneinander aufgetragen. Es wundert mich nicht, dass das grausam aussieht.


      Das Testbild stammt von der Avia, ist also nicht von mir. :)

      Das Bild ist schon eine korrekte digitale Form eines echten Gleitsinus. Ich habe leider keine Messung des D/A-gewandelten Signals. Allerdings habe ich das hier für den Multiburst gefunden. Die Auswirkungen sind identisch. Kann ich auch noch für die Skalierungsalgorithmen reinstellen, wenn gewünscht.



      Wie zu sehen, gibt es da keine Schwebungen. Die Amplitude der Bursts ist überall identisch.


      Ich kann allerdings nicht nachvollziehen, warum der Mehraufwand irgendwo in meinem Wiedergabegerät sein soll. Ich stelle mir ganz naiv vor, dass ich eine Anzeige (z.B. Beamer) habe, die einzelne Pixel darstellt. Nehmen wir an 720x480 Pixel, um bei Deinem Beispiel zu bleiben. So ganz naiv stelle ich mir auch vor, dass ich im Idealfall die Information in einer Übertragung (z.B. von einer DVD) in der Form 720x480 Pixel erhalte. Für jedes Pixel des Displays gibt es also ein Pixel in der Übertragung. Ich setze dabei voraus, dass alle nötigen Filter bereits bei der Herstellung der DVD angewendet wurden. Warum also noch weitere Filter bei mir?
      Was ist daran falsch? Von der Bildveränderung durch Kompression möchte ich absehen.


      Wie Elmar schon schrieb, gehört der Tiefpass zur Rekonstruktion. Die Kette ist im einfachsten Fall:

      1. Tiefpass zur Bandbegrenzung (gegen Aliasing 1. Art)
      2. A/D-Wandlung mit fixer Abtastrate
      3. ...
      4. D/A-Wandlung mit identischer Abtastrate
      5. Tiefpass zur Entfernung von künstlichen Oberwellen (Aliasing 2.Art)


      Das gilt für jede Quantisierung. Egal ob für Audio, Video oder Sonstiges.

      Im Grunde kann man sich das auch ganz einfach vorstellen. Angenommen wir hätten einen Projektor mit 720x480. Nun schauen wir uns an, welches seine höchste darstellbare Frequenz ist. Es ist einleuchtend, dass diese abwechselnd aus schwarzen und weißen Pixels besteht. Das ist allerdings kein Sinus, sondern eine Rechteckschwingung, weil die Pixel ja harte Kanten aufweisen.



      Die Rechteckschwindung besitzt bekanntermaßen unendlich viele Oberwellen. Diese Oberwellen sind im Original aber gar nicht enthalten! Schon alleine, weil ja vor der Digitalisierung ein Tiefpass zur Bandbegrenzung ansetzt. Maximal enthalten ist nur die Grundwelle dieses Rechtecksignals. Und genau die wollen wir wiederherstellen! :yes:
      Es ist also nicht so, dass es Mehraufwand für den Projektor wäre, sondern dem Gerät schlicht und ergreifend ein Glied in der Rekonstruktionskette fehlt. Bei CRTs ist das etwas anders. Dort wird zumindest horizontal das analoge Signal korrekt dargestellt. Der Tiefpass ist analog zu einem CD-Player in der Ausgangsstufe des DVD/Blu-ray-Players oder Scalers enthalten. Jedes Gerät besitzt ihn. Nur nützt er auch bei analoger Zuspielung eines digitalen Projektors nichts, weil dieser sein Bild eben immer nur räumlich quantisiert ausgeben kann.

      Nochmal in einem Bild verdeutlicht. Der CRT stellt die korrekte blaue Wellenform dar, der digitale Projektor die rote.




      Ich kann Deinen Ausführungen in so weit folgen, dass ein Beamer mit 1920x1080 Pixeln ein ursprünglich in 720x480 Pixeln vorhandenes Bild besser darstellen kann (benutzte Pixel 1620x1080) als ein 720x480 Beamer. Ist das Deine Kernaussage? – Dann habe ich es verstanden.


      Ja, völlig korrekt. :)

      Durch die Überabtastung (Oversampling), die eine Skalierung darstellt, werden die Oberwellen im Frequenzbereich nach oben verschoben, bis sie unser Auge nicht mehr sieht. Die Pixels des Projektors werden ja mit höherer Auflösung immer kleiner. Also werden bezogen auf die Nutzbandgrenze die Oberwellen niederer Ordnung des Rechtecksignals gar nicht mehr dargestellt. Zum Glück besitzen diese auch den größten Einfluss (höchste Amplitude), so dass wir gar nicht eine unendlich hohe Auflösung brauchen. Irgendwann fungiert unser Auge als Tiefpass und filtert die übriggebliebenen komplett weg.
      Wir haben also ein Nutzband, dass nur bis 720x480 reicht, benötigen aber die höhere Zielauflösung, um das Aliasing in unsichtbare Bereiche zu schieben. Mit diesem Trick ersparen wir uns den optischen Tiefpass, der sehr steil sein müsste. Das Prinzip ist ähnlich dem Oversampling, das heutzutage jeder CD-Player am analogen Ausgang durchführt.
    • Hallo

      Das gleiche gilt dann auch für die Farbauflösung. Bei meiner alten Möhre (Z201) passiert da natürlich nichts, weil da 8 Bit bei der Ansteuerung des DMD angesagt sind. Bei meinem Fernseher (LCD) sieht man Banding sogar noch etwas deutlicher in dunklen Abstufungen. Kann man bei neueren digitalen Projektoren zwischen unterschiedlichen Bittiefen umschalten, um auch dort ein wenig Oversampling zu machen, um Helligkeitsabstufunfen weniger hart anzuzeigen? Oder ist es so, dass die Bittiefe für die Panels technisch vorgegeben ist und sowieso hochgerechnet wird?

      Grüsse
    • Ich habe mir selber ein Testbild gebastelt um einfach mal nach dem Ringing (ja Nils das willst Du garnicht hören *eg*) zu schauen, dabei gilt zu beachten das das rein digital ist, sprich Tiefpass vor einer A/D-Wandlung, oder vor der Kodierung für eine Scheibe o.ä. gibts nicht, dafür simuliere ich eine Art Antialiasing, doch dazu mehr nach dem Bild:


      Clean ohne Legende zum selber basteln als Download

      Das Bild zeigt mehrere Schwarz->Weiss->50% Grau->Schwarz Übergänge nebeneinander, wobei von links nach rechts die Kanten immer "unschärfer" werden, sprich der erste Satz Balken hat 0,0 Unschärfe, der 2. Satz hat 0,1 Pixel Gauss, der 3. hat 0,2 Pixel Gauss und so weiter bis 1,0 Pixel und anschliessend noch einmal ein paar breitere Balken um den Ringing/"Überschwingern" mehr Raum zu geben, wieder bei 0,0 Pixel bis 0,4 Pixel Gauss.

      Wie "unscharf" nun ein Bild wird wenn es tiefpassgefiltert wird steht nun noch zur Diskussion, sprich welcher Wert ist der "richtige" für DVDs/Blu-rays und welche Werte sind rein akademischer Natur.

      Mal ein paar Skalierungsvarianten:

      Bicubic:


      Bilinear:


      Lanczos 4Taps:


      Lanczos 10Taps:


      und die dazugehörigen Waveform Analysen:

      Bicubic:


      Bilinear:


      Lanczos 4Taps:


      Lanczos 10Taps:


      Blackman 10Taps:


      Spline64:


      Ach ja alle Bilder sind von 480p auf 1080p skaliert und hier in der Forumsoftware muss man draufklicken um sie voll zu sehen.

      Man kann schön sehen das ab 0,3 Pixel Gauss das Ringing von Lanczos10 deutlich geringer wird, aber ich bin noch nicht dazu gekommen DVDs auf der Suche nach Testsequenzen durch zu forsten, kann also wie oben schon geschrieben nicht sagen welche meiner Balken denn nun wirklich Praxisrelevant sind.
    • Original von Caspar
      ja Nils das willst Du garnicht hören *eg*


      Doch, das ist sehr interessant! :)
      Genau damit habe ich kurzzeitig auch experimentiert. Allerdings war die Gaußunschärfe immer zu flach, so dass nicht nur die ringingrelevanten Frequenzen abgeschwächt, sondern auch das Nutzband beeinträchtigt wurde.

      Kennt sich zufällig jemand mit Akima-Splines aus? Ich habe die zur Interpolation der Kurve in meinem VideoEqualizer benutzt. Der Vorteil ist, dass Akima-Splines keine Überschwinger erzeugen. Ich frage mich, wie ein damit skaliertes Bild wohl aussehen würde. Das wäre eigentlich mal ein kleines Testprogramm wert. Ein Bitmap ist ja nicht schwer zu bearbeiten und der Akima-Code ist in der ALGLIB vorhanden... :kratz:

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von FoLLgoTT ()

    • Hi,
      herzlichen Dank für Eure Ausführungen. Die Idee dahinter habe ich also verstanden. Ich wäre allerdings nicht darauf gekommen, einen Full-HD Beamer anzuschaffen, um Standard-DVDs zu sehen. Das führte zu meinem Verständnisproblem.

      Interessant wäre die Konsequenz. Was bedeutet das für Full-HD Videos? Damit wäre ein Full-HD Bildschirm für die Wiedergabe dieser Videos eigentlich ungeeignet. Mehr Pixel sind aber praktisch nicht zu haben. Der Gedanke, das Bild künstlich unscharf zu machen, befriedigt mich auch nicht so recht.
      Vielleicht es ist in der Praxis nicht soo schlimm, wir sollten nur kein Testbild projizieren. Außerdem sollten ich mich dabei nicht von einem CRT-Fan erwischen lassen ;)
      Zumindest kann ich nachempfinden, warum CRT-Anhänger bei digitaler Projektion die Nase rümpfen.
      Gruß RoBernd
    • Original von RoBernd

      Zumindest kann ich nachempfinden, warum CRT-Anhänger bei digitaler Projektion die Nase rümpfen.


      Mahlzeit,

      nun das muss aber nicht so sein, denn die Signalaufbereitung ist in einigen PJ´s bereits deutlich besser geworden bzw. gar richtig gut. Im Moment sind allerdings nur im Broadcast Bereich oder in deutlich teu. Geräten noch mehr Implementierungen dahingehend verbaut.
      Letztendlich gilt es die Tugenden und deutlichen Vorteile der digitalen Technik mit den guten Eigenschaften einiger CRT Fähigkeiten zu kreuzen....das ist dann definitiv ein weiterer Fortschritt.

      Und letzteres wird (zum. im Broadcastbereich) auch mit Fähigkeiten der 3D Technik zusätzlich kombiniert.
      Denn 2011 wird Bluray mit 3D auch zu Hause Einzug finden (Spezifikationen werden hingegen jetzt schon festgelegt für das digitale Equipment).

      ANDY
      Heimkino Kurzübersicht zum Schrein
      "Lebenskunst ist die Fähigkeit auf etwas Notwendiges zu verzichten, um sich etwas Überflüssiges zu leisten."

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von ANDY ()

    • Original von ANDY
      Letztendlich gilt es die Tugenden und deutlichen Vorteile der digitalen Technik mit den guten Eigenschaften einiger CRT Fähigkeiten zu kreuzen....das ist dann definitiv ein weiterer Fortschritt.


      Genau das wär's:

      Ein Digitalprojektor, bei dem die Pixel nicht mehr scharfkantig sind, sondern der Verlauf zwischen benachbarten Pixeln fließend ist. In beide Richtungen. Ob die Display-Technologie selber dazu in der Lage ist oder ein nachgeschalteter optischer "De-Pixler" dafür sorgt wäre mir egal.

      Doch glaube ich, dass der digitale Zug eher in eine andere Richtung fährt: "Oversampling" - so viele Pixel, damit die Aliase so "hochfrequent" sind, dass die Auflösungsgrenze unserer Augen für den Tiefpass sorgt.
    • Original von Elmar
      [..]
      Ein Digitalprojektor, bei dem die Pixel nicht mehr scharfkantig sind, sondern der Verlauf zwischen benachbarten Pixeln fließend ist. In beide Richtungen. [..]


      hoi,

      eine bescheidene Frage: Macht die SmoothScreen-Technik von Panasonic nicht so etwas ähnliches? Reicht das evtl. nur noch nicht von der "Pixelausdehnung" oder ist das prinzipiell etwas anderes?

      so long...
    • Original von hajkoo
      eine bescheidene Frage: Macht die SmoothScreen-Technik von Panasonic nicht so etwas ähnliches? Reicht das evtl. nur noch nicht von der "Pixelausdehnung" oder ist das prinzipiell etwas anderes?


      Hm. Beim Googlen habe ich über Smooth Screen DAS HIER gefunden.

      Zunächst sieht das für mich so aus, also ob "nur" der Füllfaktor verbessert wird. So lange man zwischen Pixeln Kanten erkennen kann sind hochfrequente Anteile im Bild, die dort eigentlich nicht hingehören. (Sehr steile/senkrechte Flanken = hochfrequente/unendlich hochfrequente Anteile. Bandbegrenzte Signale = niemals senkrechte Flanken, immer stetiger Verlauf)

      Was die schematische Beschreibung von Panasonic leider nicht hergibt ist, wie stark der Pixelverscheibungstrick wirklich wirkt - und gesehen habe ich das noch nicht. Bei guter Abstimmung kann ich mir vorstellen, dass das Prinzip in die richtige Richtung geht.
    • Original von Elmar
      Zunächst sieht das für mich so aus, also ob "nur" der Füllfaktor verbessert wird. So lange man zwischen Pixeln Kanten erkennen kann sind hochfrequente Anteile im Bild, die dort eigentlich nicht hingehören.
      Was die schematische Beschreibung von Panasonic leider nicht hergibt ist, wie stark der Pixelverscheibungstrick wirklich wirkt - und gesehen habe ich das noch nicht.


      Selbst auf reltiv kurze Abstände (2,40 Meter) zur Leinwandbreite (3 Meter) sind einzelne Pixel dank der Smoothscreen-Technik nicht mehr erkennbar.

      Beim Sanyo Z3000 und Epson 5000 viel mir der Screendoor noch zwischen 3,40 und 4,50 Meter störend auf.

      Den Weg von Panasonic halte ich persönlich für gut, da auf diese Weise der technisch bedingte Screendoor der LCD-Technik erheblich reduziert und der Füllfaktor erhöht wird. Besser gefällt mir allerdings die LCOS und D-ILA Technik, die über einen Füllfaktor verfügt, der bereits deutlich über 90% liegt. Das führt neben mehr "Licht" auch zu noch weniger "Störungen" im Bild, weil die Pixelabstände deutlich geringer sind als bei allen anderen digitalen Techniken.
      Gruß
      George Lucas

      Mein HEIMKINO
      Lumière, ca. 20qm, 12 Plätze, Projektor: JVC DLA-X30, Leinwand: Alphaluxx Barium 6-4K, 13.1-Lautsprecher-System: Klipsch RB-81II (Front) und Klipsch RB-51II (Surrounds), Subwoofer: K.C.S. C -218-A THX, Player: Sony BDP-S7200, Toshiba HD-EP35, Endstufen: 4x Crown XLS 402D, 1x Liker BST 930,
    • @RoBernd
      Interessant wäre die Konsequenz. Was bedeutet das für Full-HD Videos? Damit wäre ein Full-HD Bildschirm für die Wiedergabe dieser Videos eigentlich ungeeignet. Mehr Pixel sind aber praktisch nicht zu haben. Der Gedanke, das Bild künstlich unscharf zu machen, befriedigt mich auch nicht so recht.
      Vielleicht es ist in der Praxis nicht soo schlimm, wir sollten nur kein Testbild projizieren.


      Ja, es ist bei FullHD kein großes Problem, weil unsere Augen schon anfangen, zu limitieren. Aber auch hier wäre eine höhere Zielauflösung richtiger. Irgendwann werden wir FullHD auch hochskalieren. Das ist nur eine Frage der Zeit.


      @hajkoo

      eine bescheidene Frage: Macht die SmoothScreen-Technik von Panasonic nicht so etwas ähnliches? Reicht das evtl. nur noch nicht von der "Pixelausdehnung" oder ist das prinzipiell etwas anderes?


      Wie Elmar schon schrieb, ist das nur eine Maßnahme zur Verringerung der Pixelabstände. Die harten Kanten zwischen den Pixels bleiben erhalten. Eine bandbegrenzte analoge Wellenform muss zwischen den Stufen stetig sein, darf also keine Sprünge aufweisen. Der optische Tiefpass müsste also über alle Pixels wirken und nicht nur über dem Einzelnen.
    • Original von George Lucas
      Selbst auf reltiv kurze Abstände (2,40 Meter) zur Leinwandbreite (3 Meter) sind einzelne Pixel dank der Smoothscreen-Technik nicht mehr erkennbar.


      Ein "richtiger" optischer Tiefpass müsste mehr bewirken, nämlich dass man keine Pixel erkennen kann - selbst wenn man mit der Nase direkt an der LW ist.

      Allerdings finde ich diese Überlegungen ab 1080p schon recht theoretisch. Unser Auge ist einfach ganz anders veranlagt als unser Ohr. Das Ohr ist bei Oberwellen schnell mal beleidigt - das Auge freut sich über schöne, scharfe Kanten - auch wenn die da nicht hingehören ;)

      Nils - das Objektiv leicht defocusieren wäre ein optischer Tiefpass. Aber mit welchen Filter-Eigenschaften? Wäre das sinnvoll / Unsinn?
    • Original von Elmar
      Nils - das Objektiv leicht defocusieren wäre ein optischer Tiefpass. Aber mit welchen Filter-Eigenschaften? Wäre das sinnvoll / Unsinn?


      Soweit ich weiß ist eine Defokussierung ein Gaußscher Unschärfefilter, also ein sehr flacher Tiefpass. Der beeinträchtigt leider das Nutzband und filtert zu wenig Aliasing. Ich weiß nicht, ob man optisch einen steileren Tiefpass realiseren kann.
    • Hallo

      Ein "richtiger" optischer Tiefpass müsste mehr bewirken, nämlich dass man keine Pixel erkennen kann - selbst wenn man mit der Nase direkt an der LW ist.


      Die einzige Lösung ist eine Auflösung, die so hoch ist, dass unser Auge vom Sitzplatz aus keine Chance mehr hat, einzelne Pixel aufzulösen. Bei den meisten Heimkinos mit ihren durchschnittlich wohl um die 2,4m breiten Leinwänden und dem Sitzabstand von 4 bis 4,5m kommt man da mit FullHD schon ziemlich nah ran. Bei grossen Sichtwinkeln reicht FullHD IMHO nicht aus.

      Wie sieht es eigentlich mit der Quelle aus, also dem Film? Bei DVDs bzw. Pal und NTSC hat man noch Rücksicht auf die alten RöhrenTVs genommen und wegen dem möglichen Zeilenflackern ein bisschen gefiltert, was letztlich auf das Nutzsignal geht. Wird so etwas bei bei 1080i auch noch gemacht oder lässt man das Bild so, wie es ist?

      MfG
    • Ähmm,

      mal doof reingefragt:

      wirkt bei sehr hohen Auflösungen nicht irgendwann das Glas
      der Objektive als Gausscher Tiefpass?

      Bei den Digitalen Fotokameras scheint wohl das "Pixelwettrennen"
      beendet, weil die Güte der Objektive nicht mehr hergibt.

      Gruß
      Alfredo
      Da schwebt hervor Musik mit Engelschwingen, Verflicht zu Millionen Tön um Töne,
      Des Menschen Wesen durch und durch zu dringen, zu überfüllen ihn in ewger Schöne,
      Das Auge netzt sich, fühlt im höhern Sehnen, Den Götterwert der Töne wie der Träne.
      J. W. v. Goethe
    • Hi,
      Original von FoLLgoTT
      Irgendwann werden wir FullHD auch hochskalieren. Das ist nur eine Frage der Zeit.

      Das werden wir sicher irgendwann. Aber wahrscheinlich erst, wenn manche Quellen auch entsprechend mehr Pixel haben. Dann verschiebt sich unsere Diskussion von 1000 Zeilen auf 2000 Zeilen ;)
      Gruß RoBernd
    • Ich glaube das geht weit schneller als die Quellen da mitkommen, denk doch nur an die ganzen 720p Beamer zurück, damals gabs nur PAL/NTSC Scheiben - 4k Beamer kann ich nun kaufen (ok die kosten 75k Euro...), 4k Displays btw auch, meine Kristallkugel sagt das es 4k Consumer Geräte geben wird Jahre bevor es ein neues Medium mit 4k geben wird, Blu-ray setzt sich laaaangsam erst durch, die Industrie wird nicht in 2 Jahren ein neues Medium vorstellen.

      Dann wird es neue Glaubenskriege geben zwischen den "ich will nur FullHD weils 1:1 ist" und uns, die lieber skalieren...
    • Original von Caspar
      Dann wird es neue Glaubenskriege geben zwischen den "ich will nur FullHD weils 1:1 ist" und uns, die lieber skalieren...


      Hm, wenn ich mir ansehe, wie sch...egal es dem Otto-Normalverbraucher ist, ob Panels nativ angesteuert oder bösartig skaliert werden, denke ich nicht, dass es hier große Glaubeskriege gibt.

      Beispiel PC:
      - Hey, du hast eine zu niedrige Display-Auflösung eingestellt?
      - Echt? Woran siehst denn das?
      - Na ja, Menu-Texte irgendwie unscharf.
      - Ah ja. Ich hatte erst die automatisch eingestellte, aber da waren die Schriften so klein.
      - Willst nicht mal umstellen, wirst sehen, das ist besser, knackiger?
      - Nö, lass mal, ich habe mich soo daran gewöhnt.

      Schon mal erlebt, so einen Dialog? Genauso wenig wie viele am PC mit der "richtigen" Auflösung zum Display gehen, machen sie sich im TV/Video Bereich Gedanken, wie aus einer Auflösung eine andere wird.
    Abonnement verwalten