Die Auswirkungen der digitalen Projektion

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Moin,

      Original von Elmar


      Beispiel PC:
      - Hey, du hast eine zu niedrige Display-Auflösung eingestellt?
      - Echt? Woran siehst denn das?
      - Na ja, Menu-Texte irgendwie unscharf.
      - Ah ja. Ich hatte erst die automatisch eingestellte, aber da waren die Schriften so klein.
      - Willst nicht mal umstellen, wirst sehen, das ist besser, knackiger?
      - Nö, lass mal, ich habe mich soo daran gewöhnt.

      Schon mal erlebt, so einen Dialog? Genauso wenig wie viele am PC mit der "richtigen" Auflösung zum Display gehen, machen sie sich im TV/Video Bereich Gedanken, wie aus einer Auflösung eine andere wird.


      ..die Realität!


      (ach nee, lassense mal, Herr J- wir wollen uns ja nicht ständig umgwöhnen müssen..)
      Gruss,

      het raetsken
    • Original von Elmar
      - Na ja, Menu-Texte irgendwie unscharf.
      - Ah ja. Ich hatte erst die automatisch eingestellte, aber da waren die Schriften so klein.
      - Willst nicht mal umstellen, wirst sehen, das ist besser, knackiger?
      - Nö, lass mal, ich habe mich soo daran gewöhnt.


      Kenn ich. Man könnte ja die Schrift größer machen.

      Aber mal zum OP: Eigentlich machen es doch diese User *genau* nach Follgotts Anweisung: Sie befeuern das Panel mit einer kleineren als der nativen Ausflösung, und kommen somit in den Genuß der Hochskalierung. :)

      @Follgott: so ganz leuchtet mir der Zweck der Untersuchung nicht ein. Du kannst meßtechnisch nachweisen, das mittels Interpolation die Quantisierungsverluste teilweise ausgeglichen werden können. Das wussten wir aber schon.
      Ich kann jetzt lediglich eine Methode erkennen (die von Dir hier), wie man die Qualität einer digialen Wiedergabe digitalisierten Materials bewerten kann?

      j.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von jungspund ()

    • Original von Caspar
      Ich glaube das geht weit schneller als die Quellen da mitkommen, denk doch nur an die ganzen 720p Beamer zurück, damals gabs nur PAL/NTSC Scheiben

      Hi,
      das war bei mir grundlegend anders. Solange es nur Standard-TV gab, habe ich die TV-Projektion nur als Option für die Zukunft gesehen. Erst als ich bereits eine ganze Menge HD-Material hatte (und zwar mit 1080 Zeilen), habe ich mir einen 720-Zeilen Projektor geleistet. 1080-Zeilen-Beamer waren zu teuer und außerdem steckte diese Technik noch in ganz schön kleinen Kinderschuhen.

      Auch heute könnten wir einen 4k-Beamer locker mit nativem Material versorgen. Allerdings nicht mit Videos sondern zunächst nur mit Standbildern aus Digi-Kameras. Also quasi eine Diashow in Diafilm-Qualität. Es dürfte auch nicht besonders lange dauern, bis die ersten Digi-Kameras auch 4k-Videos aufzeichnen können.
      Gruß RoBernd
    • Original von RoBernd
      Original von Caspar
      Ich glaube das geht weit schneller als die Quellen da mitkommen, denk doch nur an die ganzen 720p Beamer zurück, damals gabs nur PAL/NTSC Scheiben

      Hi,
      das war bei mir grundlegend anders. Solange es nur Standard-TV gab, habe ich die TV-Projektion nur als Option für die Zukunft gesehen. Erst als ich bereits eine ganze Menge HD-Material hatte (und zwar mit 1080 Zeilen), habe ich mir einen 720-Zeilen Projektor geleistet. 1080-Zeilen-Beamer waren zu teuer und außerdem steckte diese Technik noch in ganz schön kleinen Kinderschuhen.

      Auch heute könnten wir einen 4k-Beamer locker mit nativem Material versorgen. Allerdings nicht mit Videos sondern zunächst nur mit Standbildern aus Digi-Kameras. Also quasi eine Diashow in Diafilm-Qualität. Es dürfte auch nicht besonders lange dauern, bis die ersten Digi-Kameras auch 4k-Videos aufzeichnen können.


      So unterschiedlich ist die Wahrnehmung ;) Bei mir ging es "erst" 2006 los mit BBC HD, sorry mit Euro1080 konnte ich nie was anfangen, einfach vom Content der dort lief. Und HD Scheiben gibts ja erst seit 2 Jahren in Europa, da waren 720p Beamer imho schon lange "Standard" ;)

      Klar kannst Du nun mit "exotischem" Inhalt wie Diashows kommen, aber das ist doch - sorry wenn ich das so hart ausdrücke - nur eine Krücke, solange es nicht ein Consumerformat in 4k oder entsprechende TV Ausstrahlungen gibt ist man in der Auswahl der Inhalte halt *extrem* eingeschränkt. Nur um mal 4k zu demonstrieren, okay, aber nicht um das jeden Tag zu schauen - alles imho natürlich - daher erwarte ich 4k Consumer-Beamer *deutlich* vor 4k Consumercontent. Mal abgesehen von der großen Blu-ray Sammlung die dann ja nicht 1:1 ausgetauscht wird und auch noch gesehen werden will ;)
    • Original von jungspund
      @Follgott: so ganz leuchtet mir der Zweck der Untersuchung nicht ein. Du kannst meßtechnisch nachweisen, das mittels Interpolation die Quantisierungsverluste teilweise ausgeglichen werden können. Das wussten wir aber schon.


      Sicher wussten es diejenigen, die schon länger dabei sind. Neu ist das Thema natürlich nicht. Ich fand einfach die Darstellung des Bursts mit dem Waveformmonitor so eingängig, dass ich ihr einen eigenen Thread spendiert habe. :)

      Ich kann jetzt lediglich eine Methode erkennen (die von Dir hier), wie man die Qualität einer digialen Wiedergabe digitalisierten Materials bewerten kann?


      Das Fragezeichen ist etwas irritierend. Aber ja, mehr ist es nicht.
    • Original von n@t
      Nils, bedeutet das ein Panel die doppelte Auflösung von HD haben sollte?
      Quasi 3840x2160....


      Für DVD wäre das schon sehr gut. Wobei 1920x1080 in meinen Augen schon ausreichend ist, wenn der Skalierungsalgorithmus gut ist.

      Für Blu-ray ist allerdings eine weitaus höhere Auflösung notwendig, um eine halbwegs korrekte Rekonstruktion zu bekommen. Die Bursts der DVD zeigen ja, dass bei einem Oversampling oberhalb der zwei- bis dreifachen Auflösung nur noch wenig gewonnen wird. Daher wäre für Blu-ray irgendwas zwischen 3840x2160 und 5760x3240 empfehlenswert. Zumindest bei geringen Sitzabständen. Denn wie gesagt, bei HD sind die Auswirkungen des Problems weitaus weniger kritisch, weil die Auflösung unseres Auges einfach irgendwann limitiert.

      Das Ganze gilt natürlich nur für digitale Anzeigegeräte oder CRTs mit HTPC. Letzteres, weil der Tiefpass der Grafikkarte nicht variabel ist und nur bei sehr hohen Auflösungen greift. Man kann eben auch mit einer Röhre Aliasing haben. ;)
      Ich kann das an meinem G90 sehr gut nachvollziehen. Mit der HDMI-Karte ist der Desktop einen Tick weicher/aliasingfreier als über RGBHV, weil die HDMI-Karte einen der Auflösung angepassten Tiefpass besitzt.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von FoLLgoTT ()

    • Original von FoLLgoTT
      Für Blu-ray ist allerdings eine weitaus höhere Auflösung notwendig, um eine halbwegs korrekte Rekonstruktion zu bekommen. Die Bursts der DVD zeigen ja, dass bei einem Oversampling oberhalb der zwei- bis dreifachen Auflösung nur noch wenig gewonnen wird.


      Die Frage ist doch, ob man überhaupt noch etwas gewinnen kann, oder ob die Daten gar keine Rekonstruktion mehr zulassen. Die Interpolation muss ja den im Beispiel den Videolevel max/min erreichen. Möglichweise geben das ja die digital vorliegenden Werte gar nicht her.

      Stichwort Rekonstruktion: Nicht nur die Raster-Auflösung ist wichtig, sondern auch die Farbauflösung. Es bringt relativ wenig, wenn ich über die Interpolation viele Zwischenpixel bestimmen kann, diese Zwischenpixel aber nicht die erforderlichen Farbunterschiede darstellen können. Dann erhalte ich faktisch keinen Unterschied zur einer niedrigeren Raster-Auflösung. (Banding eben)

      Die sinnvolle Auflösung lässt sich ihmho so bestimmen

      aufl = (Gewünschter Sichtwinkel auf Leinwand)/(Auflösung Auge)

      Aus dem Sichtwinkel auf die Leinwand lässt sich dann der notwendige Sitzabstand und die Leinwandgröße bestimmen.

      War das jetzt richtig?
      Übrigens - den Tiefpass habe ich ja nicht kapiert. :)

      j.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von jungspund ()

    • Original von jungspund
      Die Frage ist doch, ob man überhaupt noch etwas gewinnen kann, oder ob die Daten gar keine Rekonstruktion mehr zulassen. Die Interpolation muss ja den im Beispiel den Videolevel max/min erreichen. Möglichweise geben das ja die digital vorliegenden Werte gar nicht her.


      Das verstehe ich nicht. Was meinst du damit genau?

      Stichwort Rekonstruktion: Nicht nur die Raster-Auflösung ist wichtig, sondern auch die Farbauflösung. Es bringt relativ wenig, wenn ich über die Interpolation viele Zwischenpixel bestimmen kann, diese Zwischenpixel aber nicht die erforderlichen Farbunterschiede darstellen können. Dann erhalte ich faktisch keinen Unterschied zur einer niedrigeren Raster-Auflösung. (Banding eben)


      Banding ist bei der Skalierung eher ein kleines Problem, schon eher bei der Farbraumkonvertierung. Externe Scaler arbeiten intern ohnehin in 10 oder 12 Bit, damit ist eine höhere Genauigkeit für die Interpolation gegeben. Ich schätze mal, dass am Ende Dithering durchführt wird, um auch mit den 8 Bit über HDMI mehr Abstufungen zu bekommen. Grafikkarten machen das zumindest und auch Software wie madVR oder FFDSHOW können das inzwischen.
    • Original von FoLLgoTT
      Original von jungspund
      Die Frage ist doch, ob man überhaupt noch etwas gewinnen kann, oder ob die Daten gar keine Rekonstruktion mehr zulassen. Die Interpolation muss ja den im Beispiel den Videolevel max/min erreichen. Möglichweise geben das ja die digital vorliegenden Werte gar nicht her.


      Das verstehe ich nicht. Was meinst du damit genau?


      Wenn ich bei der Digitalisierung (des Sweeps) nicht jedesmal das Maximum/Minimun treffen, sonder immer zwei Punkte rechts und links daneben, gibt mir die digitale Infomation keinen Aufschluß darüber, ob die Rekonstruktion wieder einen Extrempunkt haben soll oder eine flache Linie ist. Im Bild: Schwarz das Signal, rot die Digitalisierung, Blau ein zulässige Interpolation.


      Original von FoLLgoTT
      Original von jungspund
      Stichwort Rekonstruktion: Nicht nur die Raster-Auflösung ist wichtig, sondern auch die Farbauflösung.

      Banding ist bei der Skalierung eher ein kleines Problem, schon eher bei der Farbraumkonvertierung. Externe Scaler arbeiten intern ohnehin in 10 oder 12 Bit, damit ist eine höhere Genauigkeit für die Interpolation


      Ich wollte auch weniger auf die Interpolation 'raus, die kann ich so genau machen, wie ich will. Ich wollte auf die Projektion hinaus. Wenn ich genauer interpoliere, als ein mein Panel darstellen kann, bringt die interpolation nichts.
      Kann man Panel z.B. nur Videolevel in 3 Schritten unterscheidbar darstellen ( 16-19-22-usw), brauche ich auch nicht feiner interpolieren, da 16 und 17 sowieso das "gleiche schwarz" abgeben. (Ich hab' halt nur'nen TX-100 mit Banding .... )


      j.
      Dateien
      • digi.bmp

        (712,47 kB, 34 mal heruntergeladen, zuletzt: )
    • Original von jungspund
      Original von FoLLgoTT
      Original von jungspund
      Stichwort Rekonstruktion: Nicht nur die Raster-Auflösung ist wichtig, sondern auch die Farbauflösung.

      Banding ist bei der Skalierung eher ein kleines Problem, schon eher bei der Farbraumkonvertierung. Externe Scaler arbeiten intern ohnehin in 10 oder 12 Bit, damit ist eine höhere Genauigkeit für die Interpolation


      Ich wollte auch weniger auf die Interpolation 'raus, die kann ich so genau machen, wie ich will. Ich wollte auf die Projektion hinaus. Wenn ich genauer interpoliere, als ein mein Panel darstellen kann, bringt die interpolation nichts.
      Kann man Panel z.B. nur Videolevel in 3 Schritten unterscheidbar darstellen ( 16-19-22-usw), brauche ich auch nicht feiner interpolieren, da 16 und 17 sowieso das "gleiche schwarz" abgeben. (Ich hab' halt nur'nen TX-100 mit Banding .... )


      Doch Du kannst dithern, sprich wenn Du einige Pixel mit 17 hast (in Deinem Beispiel), dann könntest Du zwischen die 16er Pixel einige einstreuen mit 19 und genau das macht madVR/ffdshow(im neuesten Build)/externe Scaler - auch hierbei ist es natürlich vorteilhaft so viel Auflösung auf der Ausgabeseite zu haben wie nur möglich.
    • Original von jungspund
      Wenn ich bei der Digitalisierung (des Sweeps) nicht jedesmal das Maximum/Minimun treffen, sonder immer zwei Punkte rechts und links daneben, gibt mir die digitale Infomation keinen Aufschluß darüber, ob die Rekonstruktion wieder einen Extrempunkt haben soll oder eine flache Linie ist. Im Bild: Schwarz das Signal, rot die Digitalisierung, Blau ein zulässige Interpolation.


      Das spielt keine Rolle. Da das Signal bandbegrenzt ist, kann es unter idealen Bedingungen (Sinc-Funktion) komplett rekonstruiert werden. Es mag auf den ersten Blick merkwürdig erscheinen, dass auch nach der Rekonstruktion zwischen den Samples ein nichtlinearer Verlauf sein kann, genau das ist aber das Schöne an der Signaltheorie. Was digitalisiert wird, kann auch wieder 1:1 ins Analoge gewandelt werden.

      Das Vorkommen von Intersample Peaks ist übrigens der Grund, warum früher alle CDs mit maximal -3dB ausgesteuert waren, um eben Clipping beim Oversampling oder im D/A-Konverter zu vermeiden. Durch den Loudness War ist das leider nicht mehr so.
      Und auch der ungenutzte Bereich der Videolevels (0-15 und 236-255) hat daher seine Berechtigung.

      Dieser Beitrag wurde bereits 4 mal editiert, zuletzt von FoLLgoTT ()

    • Hallo, follgott

      Das mit dem Grundprinzip des Oversampling verstehe ich. Man sieht es schon an verpixelten und unleserlichen Schriften, die durch die Umrechnung in eine deutlich höhere Auflösung auf einmal leserlich sind, wenn auch nicht so scharf, wie es im Original vielleicht mal der Fall gewesen ist.

      Aber das mit der Sinc-Funktion kapier ich nicht. Ich habe zwar gegoogelt, aber was ich da gefunden habe ist deutlich zu hoch für mich. Für mein Verständnis ist es im Moment (noch) so, dass die Nyquistfrequenz die Grenze setzt und in diesem Fall alle Bilddetails darüber hinaus abgeschnitten werden. Eben Tiefpass. Durch das Oversampling bekomme ich das Bild zwar weicher und kann Informationen erahnen, die ich vorher so nicht erkannt habe, aber eine vollständige Rekonstruktion ist das für mich eigentlich auch wieder nicht.

      Kannst Du dein letztes Posting noch mal einfacher schreiben, so dass ich es verstehe?

      MfG
      Michael
    • Original von Michael_B
      Durch das Oversampling bekomme ich das Bild zwar weicher und kann Informationen erahnen, die ich vorher so nicht erkannt habe, aber eine vollständige Rekonstruktion ist das für mich eigentlich auch wieder nicht.


      Der Fehler liegt eben darin, dass angenommen wird eine 1:1-Reproduktion des digitalen Signals würde zumindest alle Informationen enthalten, die vorhanden sind. Tatsächlich sind deine digitalen Pixel aber flächig und rechteckig und erzeugen dadurch Oberfrequenzen. Die einzelnen Sample-Werte des digitalen Signals sind eben nicht das Signal, sie sind nur Stützstellen des Signals. Und Stützstellen sind theoretisch unendlich klein. Daraus kann man dann auch folgern, dass die Pixel unendlich klein sein müssen, damit man exakt rekonstruieren kann.

      Und genau das sagt auch das Nyquist-Shannonsche Abtasttheorem. Es sagt nicht nur, dass man mindestens die doppelte Abtastrate der Bandbreite haben muss, sondern auch (aus Wikipedia geklaut):

      damit man aus dem so erhaltenen zeitdiskreten Signal das Ursprungssignal ohne Informationsverlust (aber mit unendlich großem Aufwand) exakt rekonstruieren und (mit endlichem Aufwand) beliebig genau approximieren kann.

      Und hier ist eben der "Aufwand" das Problem um "exakt rekonstruieren" zu können. Wenn man nur die Sample-Werte rausschickt, dann ist es alles andere als exakt.

      Und das sowas wirklich enorm viel bringt, wurde von Björn Roy ja mal niederschmetternd gut aufgezeigt. Ich finde leider gerade auf die Schnelle nicht den betreffenden Thread aus dem AVS-Forum, aber seine Screenshots sind auch hier zu sehen: htguide.com/forum/showthread.php4?t=4435

      Da würde ich nicht mehr von "unscharf" reden. Alles andere ist eben einfach nur Mist in unterschiedlichen Abstufungen.
    • Hi,
      ich versuche es einmal:

      1. Es ist ausgeschlossen, bei der Digitalisierung immer zwei Punkte rechts und links vom Maximum zu erwischen. Das würde bedeuten, das übetragene Signal wäre gerade die doppelte Abtastfrequenz. Wegen des Eingangsfilters (vor der Digitalisierung) darf es die aber nicht mehr geben.

      2. Bei der Wiedergabe ist nach der D/A Wandlung ein steilflankiges Filter eingesetzt. Das sorgt dafür, dass auch dann ein Sinus heraus kommt, wenn die übertragene Frequenz nur wenig unter der halben Abtastfrequenz liegt.
      Oversampling ist ein Teil des Filterprozesses. Entsprechende steilflankige analoge Filter sind teuer oder unzuverlässig. Das Oversampling erlaubt es, digitale Filter zu verwenden.

      3. Was passiert eigentlich, wenn das Original gar kein Sinus ist? Wenn also z.B. eine Periode zwischen zwei aufeinander folgenden Maxima (eines angenommenen Sinus) fehlt, also durch eine horizontale Linie ersetzt ist.
      Sofern die Frequenz der Sinus-Anteile knapp unter der halben Abtastrate liegt, kann es auch diese Signalform nicht geben, weil sie höhere Frequnzanteile hätte als sie das Eingangsfilter durchlässt. Entsprechend seiner Spezifikationen (obere Grenzfrequenz) kann das System diese Kurvenform nicht reproduzieren.

      4. FoLLgoTT möge mich korrigieren, wenn es so nicht stimmt ;)
      Gruß RoBernd

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von RoBernd ()

    • Hallo

      Also geht nicht nicht mal unbedingt darum, Informationen oberhalb der Nyquistfrequenz wieder zu bekommen sondern vor allem die Frequenzen im eigentlichen Nutzbereich komplett zu rekonstruieren, weil die digitalisierten Daten mit zunehmender Frequenz immer ungenauer werden, je näher sie sich der oberen Nutzbandgrenze annähern. Komme ich der Sache jetzt näher?

      MfG
      Michael

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Michael_B ()

    • Hi Michael,
      wenn Du Deine Feststellung schärfer formulierst, triffst Du den Nagel auf den Kopf:

      Der Nutzbereich liegt prinzipiell unter der Nyquistfrequenz (halbe Abtastfrequenz). Erhält der A/D-Wandler Signalanteile darüber, gibt es eine fehlerhafte Abtastung (Aliasing). Deshalb MUSS ein Eingangsfilter alles über der Nyquistfrequenz abschneiden.

      Die Nyquistfrequenz (und alle Frequenzen darüber) muss theoretisch vollständig unterdrückt sein. In der Praxis sind Filter nicht beliebig steil, deshalb ist die spezifizierte obere Grenzfrequnz eines Systems immer deutlich niedriger als die Nyquistfrequenz. Beispiel Audio: Abtastrate 44.1 kHz, Audio-Grenzfrequenz 20 kHz. Das Eingangsfilter sollte 20 kHz vollständig durchlasen, 22 kHz (und darüber) aber vollständig unterdrücken.
      Gruß RoBernd
    • Original von Michael_B
      Aber das mit der Sinc-Funktion kapier ich nicht. Ich habe zwar gegoogelt, aber was ich da gefunden habe ist deutlich zu hoch für mich. Für mein Verständnis ist es im Moment (noch) so, dass die Nyquistfrequenz die Grenze setzt und in diesem Fall alle Bilddetails darüber hinaus abgeschnitten werden.


      Ja, das ist richtig. Nur ist die Form des Tiefpasses ist nicht immer gleich. Der ideale Tiefpass ist unendlich steil. Unter den Rekonstruktionsfiltern ist die Sinc-Funktion diejenige, die das erfüllt. Der Link auf Wikipedia hat einige Beispielbilder, vielleicht hilft dir das weiter.

      Es freut mich, dass auch andere das Prinzip mit ihren Worten erklären. Irgendwie bleibt man ja selbst immer bei den selben Formulierungen hängen, die dann auch nicht unbedingt weiterhelfen. ;)
    • @RoBernd
      Es ehrt mich sehr, dass du meinen Beitrag in dem Leserbrief erwähnt hast! Danke! :) :bier:


      Ich habe allerdings noch einige Anmerkungen zu Florians Antworten.

      1. Er schreibt, dass Skalierung nur Vorteile bringt, wenn die Zielauflösung mindestens doppelt so hoch ist. Und sonst die höchsten Frequenzen bedämpft werden.

      Das ist so nicht korrekt. Wenn man die Messungen zwischen 720x576 und 1280x720 vergleicht, wird ersichtlich, dass gerade die hohen Frequenzen beim skalierten Bild deutlich gleichmäßiger und mit höherer Amplitude wiedergegeben werden. Beim unskalierten dagegen werden sie gnadenlos von Aliasing überdeckt. Eine Skalierung ist also auch sinnvoll, wenn die Zielauflösung weniger als doppelt so hoch wie die Quellauflösung ist. Wie stark der Nutzen ist, hängt vom verwendeten Skalierungsalgorithmus ab.

      unskaliert:
      H-Sweep_unskaliert_1440x960.png


      Skaliert auf weniger als das Doppelte:
      H-Sweep_Lanczos_10_1280x720.png

      2. Ich finde es gut, dass er als Vorteil von sehr hohen Auflösung die Geometriekorrektur genannt hat. Das ist z.B. für gekrümmte Leinwände wichtig.

      3. Hier verstehe ich nicht genau, was er meint. Er geht ja davon aus, dass mindestens eine doppelt so hohe Zielauflösung benötigt wird. Zieht er in dieser Antwort den Umkehrschluss, dass ohne Skalierung ein Viertel der Nyquistfrequenz das Maximum an korrekter Reproduktion darstellt? Hat jemand von euch verstanden, was er meint?

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von FoLLgoTT ()

    • Hallo,

      habe den Thread erst jetzt entdeckt. Hochinteressante Beitraege.

      Noch vermag ich der Sache zu folgen. :silly:


      Was ist allerdings das Fazit?
      - Verlagern der Filter von der Produktions- in die Re-Produktionskette (oder umgekehrt) oder auch die Position innerhalb der jeweiligen Verarbeitungskette aendern?
      - Hinzufuegen eines auf das Wiedergabemedium angepassten Tiefpassfilters mit hoher Guete?
      - Moeglichst hochaufloesende Displays oder Projektoren zu verwenden?

      Was waere ideal, was ein vertraeglicher Kompromiss?

      Gruesse,

      Juergen
      Theorie ist, wenn einer alles weiss, aber nichts funktioniert. Praxis ist, wenn alles funktioniert, und keiner weiss warum.
    • Juergen S schrieb:


      Was ist allerdings das Fazit?


      Das Fazit ist, Projektoren mit möglichst hoher Auflösung zu kaufen! :D

      - Verlagern der Filter von der Produktions- in die Re-Produktionskette (oder umgekehrt) oder auch die Position innerhalb der jeweiligen Verarbeitungskette aendern?


      Die Position der Tiefpassfilter kann nicht verändert werden. Es muss bei der Abtastung (A/D-Wandlung) einen geben und am Ende der Rekonstruktion.

      - Hinzufuegen eines auf das Wiedergabemedium angepassten Tiefpassfilters mit hoher Guete?


      Das wäre die beste Lösung, allerdings wüsste ich nicht, wie man das optisch realisieren kann. Die Optik müsste als sehr steiler Tiefpass fungieren. Aber selbst im Audiobereich wird im DAC praktisch immer Oversampling betrieben, bevor der Tiefpass ansetzt. So kann dieser deutlich flacher ausfallen. Eine Mischung aus Oversampling und Tiefpass scheint wohl der beste Kompromiss zu sein.
    • FoLLgoTT schrieb:

      @RoBernd
      Es ehrt mich sehr, dass du meinen Beitrag in dem Leserbrief erwähnt hast! Danke! :) :bier:


      Ich habe allerdings noch einige Anmerkungen zu Florians Antworten.

      1. Er schreibt, dass Skalierung nur Vorteile bringt, wenn die Zielauflösung mindestens doppelt so hoch ist. Und sonst die höchsten Frequenzen bedämpft werden.

      Das ist so nicht korrekt. Wenn man die Messungen zwischen 720x576 und 1280x720 vergleicht, wird ersichtlich, dass gerade die hohen Frequenzen beim skalierten Bild deutlich gleichmäßiger und mit höherer Amplitude wiedergegeben werden. Beim unskalierten dagegen werden sie gnadenlos von Aliasing überdeckt. Eine Skalierung ist also auch sinnvoll, wenn die Zielauflösung weniger als doppelt so hoch wie die Quellauflösung ist. Wie stark der Nutzen ist, hängt vom verwendeten Skalierungsalgorithmus ab.



      Hallo Nils,

      ich war so frei und habe wieder deinen originalen Sweep aus dem ersten Post genommen und um diverse Prozentzahlen vergrößert (Lanczos 10) und Waveforms davon gemacht (verkleinerte Bilder, Originale gibts hier):

      000% (= Original):


      001%:


      010%:


      020%:


      030%:


      040%:


      050%:


      080%:


      100%::


      Da kann sich nun jeder sein eigenes Bild machen ab wieviel Prozent Bildgrößenänderung die Frequenzen im hohen Bereich gleichmässiger werden. Ich kenne die Faustregel aus dem Printbereich wonach jede Umskalierung unter 30% Größenveränderung doch bitte zu unterlassen ist, sprich im Umkehrschluss ab 30% Vergrößerung wird das Bild "besser" - mal etwas platt ausgedrückt.
      Die "ab 100% macht Skalieren Sinn" Meinung aus der Antwort zum Leserbrief teile ich auch nicht, das ist imho eine Urban Legend, die sich in diversen Foren auch hartnäckig hält und den Hintergrund hat das ja dann angeblich die Original Pixel 1:1 abgebildet werden können und nur die "Lücken" dazwischen interpoliert werden. Diesen Blödsinn will ich Herrn Friedrich auch garnicht unterstellen, aber ich kenne keine ernst zu nehmende Untersuchung zum Thema Skalierung wo >=100% Vergrößerung gefordert werden, vielleicht kann er ja mit irgendeinem Argument dafür aufwarten ?
    • FoLLgoTT schrieb:

      2. Ich finde es gut, dass er als Vorteil von sehr hohen Auflösung die Geometriekorrektur genannt hat. Das ist z.B. für gekrümmte Leinwände wichtig.



      Stimmt, so habe ich das im HK-Bereich noch nie gesehen. Trapezkorrektur zum Beispiel war ja absolut tabu.

      Bei hinreichend hoher Auflösung ist eine Geometriekorrektur aber "problemlos" machbar. Was in dem Zusammenhang "hinreichend hohe Auflösung" konkret heißt, überlasse ich lieber den Mathematikern ;)



      Caspar schrieb:

      Die "ab 100% macht Skalieren Sinn" Meinung aus der Antwort zum Leserbrief teile ich auch nicht, das ist imho eine Urban Legend, die sich in diversen Foren auch hartnäckig hält und den Hintergrund hat das ja dann angeblich die Original Pixel 1:1 abgebildet werden können und nur die "Lücken" dazwischen interpoliert werden.

      Vielleicht wegen der Regel "Möglichst ganzzahlig skalieren - oder auf kommafünf, aber um Himmels Willen nichts Krummes" von früher. Keine Ahnung woher das kam und warum wir (ich) das geglaubt habe, denn die Algorithmen von heute hatten wir damals auch schon.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Elmar ()

    • Das ideale fuer den Hausgebrauch waere doch ein dem Audissey-System fuer Audio entsprechendes System fuer die Bildwiedegabe.

      Dann koennte doch die ganze Kette vom Wiedergabe-Medium beginnend, einschliesslich saemtlicher Hardware und ihrer Dekoder und Filter (Soft- und Hardware), bis hin zu den speziellen Eigenschaften des Projektors, der Leinwand und des Raumes optimiert werden. Optimiert aber eben nur bis zu dem Grade, den die gesamte Umgebung zulaesst.

      Dann waere allerdings wieder so manche Einstell-Orgie faellig.

      Die Frage ist dann halt nur, an welchem Geraet die Einstellungen erfolgen sollten. So ganz trivial (und automatisiert) wie bei einem modernen AV-Receiver geht das wohl nicht.

      Genau so auch wird es wohl ziemlich aufwaendig sein, einen einigermassen soliden und dabei preisguenstigen Sensor hinzubekommen. Der muesste ja dann schon fast - oder sogar mehr als - HDTV-Kamera Qualitaeten haben um die hier genannten Effekte einfangen zu koennen.

      Gruesse,

      Juergen
      Theorie ist, wenn einer alles weiss, aber nichts funktioniert. Praxis ist, wenn alles funktioniert, und keiner weiss warum.
    • Jürgen, bezogen auf das ursprüngliche Thema (Auflösung, Skalieren, Filtern) und dessen aktueller Ausprägung (Geometrie) sehe ich eigentlich weder Bedarf noch sinnollve Umsetzbarkeit einer automatischen Einmessung.

      Wohl aber, was die Farbwiedergabe angeht. Das kann echt nicht so schwierig sein, aus Soll- und Ist-Werten Korrektur-Werte zu ermitteln und diese (wo auch immer in der Kette) anzuwenden. Ich stelle es mir viel, viel einfacher, eindeutiger, zielsicherer und effektiver vor als die Audissey-Sache. Sensoren die für den Hausgebrauch reichen sind auch nicht mehr so teuer.

      Das ist aber bezogen auf den Thread-Focus doch schon OT.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Elmar ()

    • Die "ab 100% macht Skalieren Sinn" Meinung aus der Antwort zum Leserbrief teile ich auch nicht, (...) Diesen Blödsinn will ich Herrn Friedrich auch garnicht unterstellen, aber ich kenne keine ernst zu nehmende Untersuchung zum Thema Skalierung wo >=100% Vergrößerung gefordert werden, vielleicht kann er ja mit irgendeinem Argument dafür aufwarten ?

      Auch wenn ich nicht Herr Friedrich bin, möchte ich ein paar Gedanken dazu äußern.
      Testbilder vom Waveform-Monitor sind ja schön und gut. Ich nutze sie auch immer wieder gerne. Doch am Ende zählt das, was auf der Leinwand zu sehen ist.
      Die "ganzheitliche Pixelvergrößerung" macht nämlich in vielen Fällen durchaus Sinn. Als Beispiel soll hier mal die anamorphe Cinemascope-Projektion dienen. Bei Nutzung eines Anamorphoten muss das Bild vertikal gestreckt werden, damit später das Seitenverhältnis auf der Leinwand wieder stimmt. Der Faktor beträgt rund 33%. Liegen nun Bildsignale an, auf denen z.B. horizontale Linien mit 1-Pixelgröße um 33% gestreckt werden, kommt am Ende immer ein krummes Ergebnis raus. Der "Skaler" muss sich entscheiden, ob diese Linie unverändert belassen wird oder auf 2 Pixel vergrößert wird. In der Praxis kommen da unterschiedlich breite Linien zustande. Das kann jeder mit einem entsprechenden Testbild auf seiner Leinwand reproduzieren. Da ein Bild aber nicht nur aus horizontalen Linien besteht, werden auch alle anderen Bildinhalte entsprechend vertikal gestreckt. Diese "Skalierungsfehler" sind auf Testbildern gut zu erkennen. Im laufenden Filmbetrieb fallen sie allerdings weniger bis gar nicht auf. Das bedeutet aber, dass sie trotzdem vorhanden sind.

      Diese Beobachtung besitzt natürlich auch Gültigkeit bei der Skalierung von einzelnen Pixel in alle "Richtungen". 576 Bildzeilen lassen sich halt nicht perfekt auf 720 oder 1080 Zeilen vergrößern. Das leuchtet jedem ein. Je nach Arbeitsweise eines Skaler sind zum Teil deutlich Fehler zu erkennen, weil einzelne Bildpunkte horizontal und vertikal in unterschiedlichen Verhältnissen "vergrößert" werden.
      Genau so hab ich Friedrichs Aussage verstanden.
      Gruß
      George Lucas

      Mein HEIMKINO
      Lumière, 12 Plätze, 60 m³, Projektor: JVC DLA-NZ8, Leinwand: Screen Research ClearPix Ultimate Weiß, Lautsprecher: JBL 3678 (Front), KCS SR-10A (Surrounds/Top), KCS C -218-A THX (SUB), Receiver: Marantz SR7011, 4K-Player: Sony UBP-X800, Panasonic DP-UB824, Endstufen: 4x Crown XLS 402D, 1x Liker BST 930,
    • @Caspar
      Sehr schöner Beitrag! :)


      @George Lucas
      Ich glaube, du unterliegst einem Denkfehler. :)

      Eine Frequenz, die ganzzahlig in das Raster passt, ist nicht als Sinus sichtbar, sondern als Rechteckschwinung (enorm viel Oberwellen). Eine Rechteckschwingung macht die Wiedergabe nicht richtiger, sondern erzeugt bei uns Menschen nur ein falsches Verständnis der Materie. Man denkt sich eben, wenn die Frequenz ins Raster passt, gibt es keine Skalierungsfehler. Skalierungsfehler gibt es aber bei den anderen Frequenzen auch nicht, die Oberwellenstruktur ist nur ganz anders (man sieht im Burst ja sogar Schwebungen), während die Oberwellen des Rechtecksignals nur ganzzahlige Vielfache sind und daher "sauber" erscheinen. Diese Oberwellen wären mit einem Tiefpass alle weg. Außerdem übersiehst du, dass es immer Frequenzen gibt, die nicht ganzzahlig in das Raster passen, da ja alle Frequenzen bis zur halben Nyquistfrequenz im Signal vorkommen können.


      @alle
      Im entsprechenden Beitrag im der audiovision hat auch Ulrich Löhneysen geantwortet.
    • George Lucas schrieb:

      576 Bildzeilen lassen sich halt nicht perfekt auf 720 oder 1080 Zeilen vergrößern. Das leuchtet jedem ein.

      Doch. Mir nicht.

      Die vertikalen (und leichter vorstellbar, da in unserer Vorstellung sequenziell hintereinander) horizontalen Pixel sind diskrete Samples eines BANDBEGRENZTEN, KONTINUIERLICHE Signales (= ohne Sprungstellen). Stellt man diese KONTINUIERLICHE Signal rechnerisch wieder her und tastet es neu mit mehr Samples ab, dann passiert nichts Unanständiges. Zwar machen die Themen Zweidimenisionalität und endliche Rechenleistung die Sache nicht ganz so banal - was aber nichts an der Basis der Betrachtung ändert.
    Abonnement verwalten