ECHTES dynamisches HDR Tone Mapping für Projektoren mit madVR

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • ECHTES dynamisches HDR Tone Mapping für Projektoren mit madVR

      Hallöchen,


      MadVR Dynamische Tone Mapping für Beamer: Inhalt Verzeichnis:

      0) Introduktion: was ist madVR dynamische Tone Mapping

      1) Englische Support und Entwicklung Thread zu dem Tool: madmeasureHDR Optimizer / Dynamic Clipping
      avsforum.com/forum/26-home-the…ml#/topics/3040072?page=1

      2) Kleine Geschichte: wie sind die dynamische Target Nits pro Frame entstanden.

      3) Zwei Möglichkeit für dynamische HDR mit madVR: "LIVE algo" & "madMeasure Optimizer Tool"

      4) Wie funktionniert das dynamische Target Nits algo? Warum kann ein Target Nits von 1000nits verwendet werden, wenn ich doch nur 100nits an der Leinwand sehe?

      5) MadVR und BT2390: Display Target Nits / Frame Peak / KneeStart --> wie funktionniert das ganze komprimieren /Helligkeit skalieren?


      6) MadVR Tone Mapping VS Direktor Intent: auf was soll man beim Tone Mapping achten, um so nah wie möglich an der UHD Master zu kommen, trotz geringe Helligkeit an der Leinwand?



      Eine Grundlage für den Start: :jump:


      Tone Mapping ist die Kunst, höhere Helligkeiten und evtl. größeren Farbraum, als das Display kann, so zu manipulieren/komprimieren, dass das Bild auf einem solchen Display trotzdem so nah wie möglich an die Intention der Filmemacher ("Director's intent") heran kommt. Das betrifft die Bilddynamic, Durchzeichnung, Details in den Highlights, Farbtreue und tatsächliche Helligkeit.


      Hochwertiges dynamisches Tone Mapping ist deswegen besonders wichtig bei Beamern, weil diese oft nur 50 bis 200 Nits Helligkeit auf die Leinwand bringen. Das ist viel weniger als wofür UHD Blurays gemastert wurden: 1000 bis 4000 Nits!


      Bei Fernsehern, die zum Beispiel 1000 Nits schaffen, ist Tone Mapping deutlich weniger wichtig.


      Zu dynamischem HDR gehören mehrere Komponenten:


      1) Dynamische Gammakurve


      Die Kurve wird mit Hilfe des tatsächlichen Frame Peaks nach Bt2390 angepasst, sodass nur so viel wie nötig komprimiert wird. Damit wird die geringe Helligkeit, die Beamer-Nutzern zur Verfügung steht, je Frame optimal ausgenutzt.


      Bei statischem HDR (z.B. verschiedene UHD Player oder Arve Kurven) wird bis zu einem festen Punkte "getonemappt", z.B. 1000 Nits oder 500 Nits. Bei dunkleren Frames wird so Helligkeit verschenkt, bei helleren wird geclippt.


      Mit einer dynamischen BT2390 Gammakurve, berechnet anhand des Frame Peaks, wird das Maximum an Bilddynamik herausgeholt. Es ist ähnlich wie wenn man für jeden Frame Pause drücken würde und sich die zum aktuellen Peak am besten passende Arve Kurve aussuchen würde.


      2) Dynamische Target Nits


      Die Target Nits definieren die Grundhelligkeit des Bildes. Ein hohes Target bedeutet mehr HDR-Effekt, aber weniger Helligkeit, umgekehrt für ein niedriges Target. Nun ist es aber so, dass es extrem unterschiedliche Masterings gibt (besonders dunkel: Solo und Blade Runner, besonders hell: The Meg). Und auch innerhalb eines Film sind die Unterschiede zwischen dunklen und hellen Szenen sehr groß. Zu groß für den Helligkeitsbereich, den Projektoren schaffen.


      Wählt man also ein einzige Grundhelligkeit/ Target Nits, können trotzdem noch dunkle Filme zu dunkel aussehen und helle Filme zu hell aussehen.


      Ein automatisch optimal gewähltes konstantes Target je Film ist schon ein großer Schritt gewesen. Es passt dann ungefähr über den gesamten Film und es muss nichts je Film justiert werden. Das klappt mit madVR schon seit einiger Zeit sehr gut.


      Es ist allerdings immer noch ein Kompromiss: dunkle Szenen können Durchzeichnung verlieren und helle Szenen können überstrahlt wirken.


      Mit dynamischen Target Nits pro Frame, sorgt man dafür, dass jeder Film und jede Szene eine optimale Grundhelligkeit bekommt.



      1) und 2) bekommt man in mittlerweile sehr guter Qualität mit madVR (mit oder ohne unser Tool).



      Wie viel Entwicklungs- und Test-Arbeit dahinter steckt, kann man hier nachlesen:

      avsforum.com/forum/24-digital-…dr-mapping-projector.html


      Dieser Thread wurde vor einem Jahr speziell für das HDR -> SDR Tone Mapping von madVR eröffnet.


      Es ist eine weitere Stärke von madVR, dass man nicht nur das beste dynamische HDR Tone Mapping bekommt, sondern auch die Möglichkeit, das Signal auf ein sauberes SDR Gamma umzuwandeln, um JEDEN Beamer voll HDR kompatibel zu machen (Beispiel: Epson EH-LS10000 ).


      Und um das ganze noch mit erfahrener User Erfahrung zu verbinden, hier ein super Beitrag von Karsten (Mekali):



      Mekali / Karsten schrieb:

      Die HDR Performance von Projektoren war von Beginn an eine ziemlicher Kompromiss, da unsere Projektoren einfach nicht die technischen Voraussetzungen wie z.B. OLED`s mitbringen und in der Spitzenhelligkeit doch arg begrenzt sind. Ich habe relativ viele Versuche unternommen, um die HDR Performance zu verbessern. Clipping einstellen, Arve Kurven einspielen, Oppo Tone Mapping und Panasonics HDR Optimizer. Alle von mir ausprobierten Versuche brachten aber auch gewisse Nachteile mit sich. Arve als statische Kurve passte manchmal, aber halt nicht immer, Oppos Tone Mapping hat den bekannten REC 709 Bug und der HDR Optimizer von Panasonic fand ich persönlich jetzt auch nicht so prickelnd, was aber auch an dem Player als solchem gelegen hat.Viele werden mit dem HDR Optimizer sicherlich glücklich sein, aber ich bin letztendlich bei einem HTPC mit madVR Software gelandet. Ich habe mich lange gegen einen HTPC im Kino gesträubt, aber das was ich dann mit madVR auf der Leinwand zu sehen bekam, hat alle bisherigen Versuche deutlich übertroffen.Eine sehr gute erste Einführung, Übersicht und Anleitung zur Realisierung findet Ihr hier
      Berndffm ist ja auch hier im Forum aktiv

      Da nicht alle bei Facebook vertreten sind, verweise ich an dieser Stelle aber trotzdem auch an die HTPC und madVR Gruppe. Anna und Flo sind da schwer aktiv und man bekommt dort immer sehr schnell Hilfe und Support. Ich werde hier im Eingangspost nicht alles von A bis Z erklären bzw. vorkauen, da ich das weder kann noch will Aber es soll auch hier die Möglichkeit bestehen sich hier über den madVr auszutauschen. Hardware, Kodi, verschiedene Player und natürlich die neusten Updates können hier thematisiert werden. Neue Beamermodelle füllen zig Seiten und der Zugewinn an Bildqualität ist häufig fast zu vernachlässigen, obwohl mitunter mehrere Tausend Euro investiert werden.

      Den größten Einfluss auf die Wiedergabequalität hat mittlerweile eher das pre processing und weniger der Projektor selber. Selbst olle Beamer wie ein X500 und ein LS10000 (ein kleiner Insider ) profitieren enorm von der HDR Wiedergabe durch einen madVR.

      Mit madVR ist eine HDR Wiedergabequalität auf wirklich hohem Niveau möglich, obwohl unsere Beamer das ja eigetlich gar nicht richtig darstellen können. Die Grundhelligkeit ist sehr gut und das unter Beibehaltung des HDR Farbraumes. Spitzlichter haben Punch und die Durchzeichnung in dunklen Bereichen ist perfekt. Ein besseres HDR Bild habe ich bei mir noch nie gesehen

      Im großen AVS Forum füllt der madVR Thread hunderte von Seiten und hier im Forum fristet dieses Thema zu Unrecht ein absolutes Nischendasein. Hier haben nun alle Interessierten die Möglichkeit sich darüber auszutauschen. Viel Spaß dabei



      Viel Spaß beim lesen, testen, entdecken und das Egebnis geniessen! :thumbs:


      Grüße
      Anna&Flo :bier:
    • Kleine Geschichte: wie sind die dynamische Target Nits pro Frame entstanden. :)



      1)
      Wir hatten ganz am Anfang (vor 1Jahr etwa) mit einem festen Target nits von 300nits angefangen. War und ist immer noch ein guter Kompromiss für viele Filme.


      2) schnell haben wir bemerkt, dass für manche Filme wäre doch eine höhere Target Nits besser (hell gemastert: manche 4000nits titel und demos) oder ein kleinere Target Nits (dunkle Filme wie "Arrival", "Jason Bourne").


      Dann hatten wir entsprechend Profile mit Shortcuts erstellt mit ctrl+1 bis ctrl +9 für verschiedene Target Nits zwischen 120nits und 500nits.


      Und bei jeder Film, haben wir manuell kurz geschaut, welche Target Nits am besten im Mittelwert passt.


      3) Dann hatte Manni in avsforum vorgeschlagen, Regeln zu erstellen, um eine automatische Target Nits selektion pro Film abhängig von den maxcll Metadaten .


      War ein großer Vorschritt. Hat aber nicht immer perfekt gepasst, weil Metadaten enthalten oft einfach Zahlen, die falsch oder nicht repräsentativ sind.


      4) Dann ist plötzlich die Möglichkeit gekommen seine Filme im voraus zu analysieren, und neue Kennzahlen wie avgfmll zu berechen. Avgfmll ist das Mittelwert Frame Peak während der gesamten Film (Und maxCLL ist die höchste Peak Helligkeit während das gesamte Film).
      Also avgfmll ist quasi das avg maxcll des gesamten Film.
      Das gleiche mit avgFALL.


      Dann hat jeder probiert neue Profil Regeln zu erstellen, um automatisch das beste Target Nits zu selektieren pro Film abhängig von den neuen gemessen und berechneten Werte.


      5) in Dezember 2018 hat madshi hinzugefügt die Möglichkeit der Target Nits pro Frame in der measurement Datei zu definieren.


      Da haben Anna und ich hart gearbeitet und unser Tool ist entstanden, um zusätzlich zu unsere dynamische clipping, dynamische target nits pro Frame anzubieten.


      Läuft mittlerweile top! sogar, wenn wir trotzdem weiter versuchen, das noch weiter zu verbessern. :)


      War eine kleine Revolution für alle, weil jede Scene von Film hat dadurch das perfekte Target Nits damit nix zu dunkel oder zu hell angezeigt wird.


      Da ist auch das Konzept von real nits / Minimum target nits gekommen. Das soll man eintragen, damit die Scenen nie heller angezeigt werden als codiert auf die UHD Scheibe.


      Es ist auch so, dass wenn der Peak kleiner ist als sein "Real Display Nits", dann wird das Target Konstant bei diesem Minimum Target Nits bleiben. Bei uns sind das 50nits. Bei dunkle Szenen wo der Peak unter 50nits ist, dann ist das Target 50nits und wir sehen dann die Scenen GENAU so hell wie von Direktor gewollt und unangetastet! Ist echt Hammer.


      6) Seit kurzem hat Madshi unser Fall algo für dynamische Target nits übernommen in der Live algo. Dafür sind keine vorherigen Messung notwendig.


      Auch da muss man sein echtes Real display nits / Minimum Target nits angeben und nicht mehr lügen.


      Da der live algo kennt nicht die Zukunft, kann die Qualität bischen schlechter sein als mit optimierten measurement Dateien mit unserem Tool.



      Viele Grüße,
      Flo :bier:
    • 3) Also, es gibt 2 Möglichkeiten dynamische HDR mit madVR zu spielen.

      1) Mit vorherigen Measurement und Optimierung durch unser Tool: madmeasureHDR Optimizer 3.7.9
      Da wird der *.measumeasurement datei gleich genannt wie dein mkv und neben der Film abgelegt.

      Solange, du nicht im mafVR: "ignore measurement file", selektiert hast, werden sie verwendet.

      Kann man gut sehen während der Film mit Ctrl+J.
      (Bitte nicht vergessen ein leeres Ordner "showHDRmode" in madVR Verzeichnis zu erstellen, um alle Informationen zu sehen).

      Da braucht man nur madVR beta v40.
      Man kann zwar ein neuere Beta verwenden, aber alle die Einstellungen in der hdr tab werden ignoriert , wenn ein measurement Datei schon vorhanden und optimiert wurde.

      2) Option 2: nicht vormessen und der Live algo verwenden.
      Dafür solltet man die letzte madVR beta verwenden (v70 irgendwas) und selektieren "measurement file" ignorieren, falls manche schon vorhanden sind, damit er die nicht verwendet.

      Der Live algo beruht sich auf der "FALL algo" für dynamische Target nits was wir im tool entwickelt haben. Madshi hat auch ein vereinfachte Version von den dynamische Clipping vom tool auch übernommen.

      Da kennt der Live algo nicht die Zukunft im Gegensatz zu vorherige Messung. Also er probiert anders zu glätten, damit man nicht die ganze Anpassung sieht.

      Zusammenfassung:

      Man verwendet entweder der Live algo oder das Tool. Nicht beide gleichzeitig.

      Ich würde das tool mit vorherige Messung empfehlen, weil man damit die beste Qualität erreichen kann.

      Aber im Live algo und im tool kann man selektieren was für dynamische hdr will man verwenden:

      A) dynamische tone Mapping bis zum Frame Peak (immer aktiviert)

      B) dynamische clipping (restore dynamic range): der peak wird verändert und ersetzt, um die Spitzhighlights Pixels zu clippen, um mehr dynamik im Bild raus zu holen. Es ist pro Frame anders und es clippt in Schnitt sehr wenig Pixels: etwa 0.07% alles pixels eines Frame.

      C) Dynamik Target Nits: automatische Helligkeit Anpassung abhängig von Film / Scene / Frame und dein Real Nits.
      Da kann man steuern den Kompromiss: Helligkeit vs HDR Effekt , durch den Parameter " dynamic Tuning".
      Hohe Werte von dynamic Tuning ergeben mehr hdr aber weniger Helligkeit. Und andersrum. Das ist nach Geschmack ein mal zu einstellen. :)

      Unser tool hat 2 dynamische target nits algo:
      - FALL algo (auch in live algo verfügbar).
      - bt2390 algo (wir arbeiten noch dran)

      Vg,
      Flo
    • 4) Wie funktionniert das dynamische Target Nits algo? Warum kann ein Target Nits von 1000nits verwendet werden, wenn ich doch nur 100nits an der Leinwand sehe?

      Zuerst wie ich oben in der "dynamische Target Nit Historie" geschrieben habe, haben Beamerbesitzer immer höhere Target als ihr Real Display Nits verwendet haben.

      Viele Beamerbesitzer haben an der Leinwand zwischen 50 zu 150nits.

      In Theorie, wie es in der bt2390 Standard definiert ist, sollte der "display target nits" entsprechend die Helligkeit was man an der Fernseher/Leinwand hat.

      Also bei Beamer mit 100nits an der Leinwand , würde es bedeutet zum Beispiel eine konstante Target Nits von 100nits egal für welche Film. Wäre aber ziemlich schlecht.

      Warum?
      Mehrere Gründe

      1) Beamer besitzer schauen Filme in völlig abgedunkelten Räumen. Häufig sogar schwarz verkleidet.
      Die Helligkeit für in der Mastering hinterlegt ist aber generell für Fernseher mit fremdlicht im Raum.

      Also im abgedunkelte Raum braucht man weniger Helligkeit, als was mit Fremdlicht vorgesehen war.
      Man kann also dunkler anschauen.

      2) Beamer besitzer haben deutlich größere Leinwandfläche als die Masteringmonitoren. Je größer die Fläche und Bildsichtwinkel, desto heller (subjektiv) wirkt das Bild.
      Entsprechend kann man wieder dunkler schauen, als im Mastering vorgelegt ist.

      Bei 1) und 2) heißt, dass man zu madVR lügen kann, und ein höhere Display Target nits angeben kann, als msn tatsächlich hat.

      Deswegen haben die Beamer Leute schon damals mit statische Target Nits, Target Nits von 300 oder 400 oder sogar 500, trotz nur 100 real display Nits an der Leinwand.

      In der Sinn, mit 300 statt 100, schaut man alles 3 mal dunkler.

      3) Aber warum nicht immer mehr Helligkeit rausholen ubd trotzdem 100 Target nits bei 100 real nits angeben?
      Weil alles was über die Target Nits auf die Scheibe abgespeichert, muss noch komprimiert werden und unter die Target Nits gepackt werden.

      Je komprimierter desto flacher und mehr überstrahlt wird das Bild.

      Wenn man 100 Target nits hat, aber das Bild hat ein pixel Peak bei 1000nits, dann müssen alle die Pixels von 100 bis 1000nits in den Bereich 0-100nits komprimiert werden.

      Es wird also extrem komprimiert und wird sehr schlecht aussehen.

      Wenn man stattdessen 300 Target nits (bei 100 real nits ) verwendet, dann muss "nur" die pixels zwischen 300 und 1000nits in dem Bereich 0-300nits komprimiert werden.

      Ist deutlich weniger stark komprimiert.
      Hdr Effekt kann man wieder wahrnehmen.

      Dazu ist definiert in der bt2390, 2 Bereiche.
      Erste Bereich von 0 bis Kneestart: das werden alle die pixels unkomprimiert angezeigt.
      Zweite Bereich von Kneestart bis zu Peak nits: da werden die pixels komprimiert und zwar umso stärker je näher am Peak nits.

      Idealerweise möchte man den unkomprimierte Bereich von 0 bis Kneestart so groß wie möglich haben. Aber je größer der Frame Peak, desto tiefer sitzt der Kneestart. Gleichzeitig je höher der Target Nits, desto höher sitzt der Kneestart.

      Also als Kompromiss zwischen hdr Effekt und Helligkeit, kann man höher oder niedriger der Target nits selektieren.

      Und das gilt für statische und dynamische Target Nits.

      4) Man hat in 3) verstanden, dass HDR Effekt wird gesteigert durch höhere Target nits. Natürlich ein höhere Target Nits als der Frame Peak bringt dann keine Vorteile mehr, deswegen ist in der dynamische Target Nits der Frame Peak als Obergrenze gesetzt.

      Bei sehr helle Bilder wie für the MEG oder the Shallow, die nicht nur eine hohe frame Peak haben, aber allgemein eine hohe durchschnittliche Helligkeit / Fall haben, kann man noch höhere Target Nits verwendet, weil das Bild eh sehr hell ist.

      Es kann durchaus passieren, dass der frame so hell ist, dann man trotz 100 real nits, 1000 Target nits oder höher wählt, damit die Bilder/ Himmel / Gesichter nicht überstrahlt (zu komprimiert) aussehen.

      Bei 1000 Target nits statt 100 wird das Bild viel plastischer aber trotzdem nicht zu dunkel, weil es ursprünglich ein super helles Bild war.


      Konklusion:
      Mit dynamische Target Nits probiert man mit der FALL Algo, eine passende Target Nits für jede Frame zu wählen mit der Formeln:

      Target nits = max( no compression limit , real nits) +2× FALL × dynamic Tuning /50

      Allerdings gibt es Obergrenze, damit man nie eine zu hohe Target Nits wählt:
      - peak nits
      - 2× average Highlights über 100nits
      - Benutzer definiert "max target nits" : default Wert 4000nits.
      Dieses max target nits wird fast nie erreicht und ist in den meinsten Fälle irrelevant. Deswegen kann man ruhig 4000nits lassen, sogar wenn sein "real nits" nur 50 nits ist.

      Es gibt auch ein Target Nits Untergrenze , und das ist ihr "REAL Display nits / Minimum Target nits.
      Wenn ihr habt 50n echte Nits, dann sollte der Target Nits nie kleiner sein als 50nits, damit das Bild nie heller angezeigt wird, als in Mastering vorgesehen wird.

      Es bedeutet, dass wenn das Frame Peak unter ihr Real Nits sich befindet, dann Target Nits = Real Nits, und ihr genießt ein 1:1 Bild! Unkomprimiert und mit der original gewollte Helligkeit!
      Dadurch werden dunkle Scenen besonders hervorragend mit madVR dynamisches target nits aussehen.


      Viel Spaß noch,

      Flo
    • 5) MadVR und BT2390: Display Target Nits / Frame Peak / KneeStart --> wie funktionniert das ganze komprimieren /Helligkeit skalieren?

      Eigentlich ist es so.

      Sagen wir, dass wir 100nits an der Leinwand schaffen.

      1)Fall 1: wir haben ein target nits von ebenfalls 100nit

      Bei einem frame mit einem Peak von 300nits, merkt sich madVR das es bringt nix Platz zu lassen für hellere Pixel als 300nits, weil es keine gibt.

      MadVR berechnet also eine Gamma Kurve basiert auf BT2390. Die gamma Kurve wird mit Bt2390 gerechnet mit vor allem 2 input:
      - ein Display Target nits (hier von 100nits)
      - ein Mastering Peak (hier von 300nits)

      300nits kriegt also 100% Helligkeit Signal bei 100 Display Target Nits. Mit 100 echte max nits an der Leinwand werden die 300nits als 100%×100=100nits an der Leinwand angezeigt.

      Pixels mit 250nits wird komprimiert wie berechnet mit der bt2390 gamma Kurve.
      Kriegt aus der Luft gegriffen vielleicht 95nits von den 100 maximal Display Target Nits. Also 95/100= 95% Signal.
      Mit 100 echte nits an der Leinwand sind das: 95%×100=95nits

      Irgendwo weiter runter gibt es was man bt2390 nennt "Kneestart ". Unter diese Grenze werden die pixels nicht mehr komprimiert und werden 1:1 mit original Helligkeit angezeigt.

      Dieses Kneestart ist ein Bestandteil der bt2390 gamma Kurve und ist abhängig vom Mastering Peak und Display Target Nits.

      Der KneeStart ist natürlich niedrieger als der Display Target Nits. Alles was über der Display Target nits bis zum Frame Peak existiert muss immer komprimiert werden. Und dafür muss man Platz schaffen unter der Display Target Nits. Entsprechend wird alles werden alle Pixels zwischen Kneestart und der Peak Nits komprimiert zwischen Kneestart und der Display Target Nits.

      Hier wäre vielleicht 50nits der Kneestart. Also es würde bedeuten, dass 50nits als 50nits für ein Display Target nits von 100nits angezeigt wird.

      Und 20nits als 20nits für ein Display Target Nits von 100nits... etc


      2) Fall 2: trotz max Helligkeit an der Leinwand von 100nits, trägt man ein Display Target nits von 200nits in madVR ubd entsprechend für die bt2390 Gamma Kurve.

      Was passiert?

      Wie vorher, bei einem frame mit einem Peak von 300nits, merkt sich madVR das es bringt nix Platz zu lassen für hellere Pixel als 300nits, weil es keine gibt.

      MadVR berechnet also eine Gamma Kurve basiert auf BT2390. Die gamma Kurve wird mit Bt2390 gerechnet mit vor allem 2 input:
      - ein Display Target nits (hier von 200nits)
      - ein Mastering Peak (hier von 300nits)

      300nits kriegt also 100% Helligkeit Signal bei 200 Display Target Nits. Mit 100 echte max nits an der Leinwand werden die 300nits als 100%×100=100nits an der Leinwand angezeigt.

      Pixels mit 250nits wird komprimiert wie berechnet mit der bt2390 gamma Kurve.
      Kriegt aus der Luft gegriffen vielleicht 170nits von den 200 maximal Target Nits. Also 170/200= 85% Signal.
      Mit 100 echte nits an der Leinwand sind das: 85%×100=85nits.

      Der Kneestart wird vielleicht dieses mal bei 150nits landen mit der max display target nits von 200nits und Frame Peak von 300nits.
      Also alle die Pixels über 200nits bis zu 300nits Peak werden komprimiert zwischen 150 und 200nits.

      Aber man darf nicht vergessen, dass man da gelogen hat, und wie haben ja nur 100nits Effektiv an der Leinwand. Also alles wird mit 100/200 skaliert.

      An der Leinwand werden also alle die Pixels über 200nits bis zu 300nits Peak zwischen 150×100/200= 75nits und 200×100/200=100nits komprimiert.

      Und alle Pixels, die unter der Kneestart von 150nits mit 1:1 Helligkeit für 200 Display Target Nits angezeigt werden musste, werden hier 1:1×100÷200=1:2 stattdessen angezeigt.

      Also 150nits wird mit 75nits angezeigt an der Leinwand.
      100nits wird mit 50nits angezeigt.
      50 nits wird mit 25nits angezeigt.
      25nits wird mit 12.5nits angezeigt.

      Wie man sieht, mit 200 Target Nits ist das Bild in Mittelwert dunkler. Der Peak bleibt aber bei der gleiche Helligkeit und der Dynamik Range / Hdr Effekt wird verstärkt gegenüber der Verwendung von 100 Target nits.

      Flo :bier:
    • 6) MadVR Tone Mapping VS Direktor Intent: auf was soll man beim Tone Mapping achten, um so nah wie möglich an der UHD Master zu kommen, trotz geringe Helligkeit an der Leinwand?

      Direktor Intent ist ein sehr gute und wichtige Thema.

      Die UHD Bluray wurden urprunglich für einen Display mit 1000nits, 4000nits oder sogar mal 10000nits gemastert.


      Allerdings, haben wir "Beamer Leute" eine Helligkeit an der Leinwand, die generell (leider) NUR zwischen 50nits und 200nits enthalten ist.
      Und da komm dynamische Tone Mapping in Frage, um am besten die verfübare Helligkeit zu verwenden.


      Man kann unterteilen der Direktor Intent in 2 Kategorie:


      1) Wie sollte ein Bild / Frame ganz allein betrachtet Direktor Intent aussehen
      2) Wie sollte die Bilder relativ zu einander aussehen?



      Zu 1: "Wie sollte ein Bild / Frame ganz allein betrachtet Direktor Intent aussehen
      a) Der Direktor Intent hatte eine gewissen Bild Dynamik / Kontrast / Highlights Details / Helligkeit und Spitzhelligkeit vorgesehen
      b) Der Direktor Intent hatte gewissen Farbe mit Sättigung und Helligkeit vorgesehen


      Um a) und b) am besten mit einen Beamer mit wenig Helligkeit zu erreichen, sollte man also ganz schlau jedes Bild/Frame ganz genau analysieren, und Tone Mappen, um am besten dieses Helligkeit zu nutzen.


      Um die Bild dynamik zu behalten, sollte man NIX an Helligkeit schenken, damit man so nah wie möglich am Direktor Intent Ziel für die betrachte "Frame" kommt. Der Peak Helligkeit vom Bild muss Bild für Bild analysiert werden.


      Da muss man wieder in 2 Fälle unterscheiden:

      X) Entweder ist der Frame Peak (Beispiel 30nits) unter unser Real Display Nits (sagen wir 50nits):
      --> in dem Fall hat man die möglichkeit das Bild PERFEKT, unkomprimiert, mit der original Helligkeit wie von Direktor Intent vorgesehen war.
      Dafür wird der dynamische Target nits gleich unser Real Nits gesetzt (hier Beispiel 50nits).


      Y) Oder der Frame Peak (sagen wir 300nits) ist über unser Real Display Nits (sagen wir 50nits)
      --> in dem Fall muss man das Bild komprimieren.
      Da hat wieder 5 Möglichkeiten:
      - Erste Möglichkeit: Target Nits 50nits und man komprimiert alles zwischen 50nits und Film max Peak von 1000nits.
      Das ist sehr suboptimal..., weil man hier SUPER VIEL Helligkeit her schenkt, wenn man der Peak Weiß für 1000nits setzt, aber der Frame Peak ist ja nur 300nits hier.
      Man muss dazu EXTREM komprimieren, HDR geht verloren, Farben, weil man kompromiss zwischen Helligkeit und Sättigung machen muss.
      Man ist sehr weit vom Direktor Intent... :nono:


      - Zweite Möglichkeit: Target Nits 50nits und man komprimiert alles zwischen 50nits und 300nits (frame Peak).
      Hier komprimiert man deutlich weniger.
      Der Peak weiß wird so hell dargestellt werden, wie von Beamer möglich ist.
      Keine Helligkeit ist verschenkt.
      Allerdings, es wird trotzdem immer noch stark komprimiert und HDR Effekt geht verloren im Profit von Helligkeit.


      - Dritte Möglichkeit: Target Nits 300 nits gleich der Frame Peak.
      Was passiert dabei? Hier kriegt man das VOLLE HDR Effekt vom Bild! :biggrin:
      Allerdings, ist das Bild 300/50=6 mal dunkler als usprunglich vom Direktor Intent vorgesehen... <X


      - Vierte Möglichkeit: Target Nits 150nits und man komprimiert alles zwischen 150nits und 300nits (frame Peak).
      Das ist ein sehr gute Kompromiss! :thumbup:
      Man muss nur bischen komprimieren, das Bild enthäht noch HDR Effekt, und ist hier nur 3 mal dunkler als der Direktor Intent.


      - Fünfte Möglichkeit mit "Dynamik Clipping": Target Nits 150nits und man komprimiert alles zwischen 150nits und (Z.b) 200nits..
      Hier wird das Bild Histogram analysiert, um zu schauen, die Spitzhelligkeitverteilung.
      Sehr oft werden nur wenige Pixel im Bild ( ~0.05% vom gesamten Bild) eine große Helligkeit Sprung haben.
      Aber 99.95% vom Bild bleibt unter eine deutlich kleinere Nits Zahl als der Frame Peak.
      Der Dynamik Clipping sucht nach ein "Highlight Knee", um nur wie zu diesem Knee zu komprimieren.
      Weniger komprimieren, heißt mehr HDR Effekt und often auch mehr Helligkeit.
      In dem Beispiel würde mal also nur was zwischen 150 und 200nits komprimieren (statt bis zum Peak von 300nits) was würde das Bild noch näher am Direktor Intent machen. (und 0.05% z.B vom Bild zwischen 200 und 300nits einfach clippen).


      Also für jedes Bild sollte man das Wahl treffen zwischen HDR Effekt und Helligkeit, um so nah am Direktor Intent zu kommen.
      Und Frame Peak sollte man so hell wie möglich anzeigen.



      Aber... man sollte nicht das zweite Aspekt vom Direktor Intent vergessen! :lol:
      2) Wie sollte die Bilder relativ zu einander aussehen?



      Der Direktor Intent hat eine gewisse Helligkeit für jede Frame vorgesehen.
      Und die relativ Helligkeit von ein Frame zu die nächste muss natürlich respektiert werden.


      Das wird von madVR gehandelt mit dem Konzept von Scene /Shots.
      Innerhab jede shots/Scene, wird es nur sehr langsame Änderungen geben bzgl. die Gamma Kurve, damit die Grundhelligkeit vergleichbar bleibt (und auch damit keine Flickering vorhanden wird).
      Also alles innerhalb ein "shot/scene" wird alles schön zusammen passen.


      Beim Kamerawechsel resettet /springt der LIVE Algo zu die neue Optimale Einstellungen bzgl. Frame Peak und Target Nits.
      Da es da zwischen ein Kamerawechsel gibt stört es der Auge nicht.
      Vor allem, weil das menschliche Gehirn nur ein sehr kurzes Visuel Gedechniss hat.


      Mit unserem Tool: madmeasureHDR optimizer, hat man aber das Konzept von "Chapter Introduziert", um alles die Shots und Kamerawechsel die eigentlich immer noch zu die gleiche Scene/Chapter zusammenzugruppieren.
      Ziel damit ist das, wenn 2 Leute im gleichen raum diskutieren und es gibt Kamerawechsel hin und her, die Relativhelligkeit beibahlten bleibt.


      Allerdings hat die Erfahrung und Userfeedback in avsforum gezeigt, dass das menschliche Gehirn nur ein sehr kurzes Visuel Gedechniss hat.
      Dadurch braucht man sich nur fokusieren, der Diektor Intent von Realtivhelligkeit zu respektieren für Frame die sich folgen.
      Es bringt also gar nix zu respektieren die Realtivhelligkeit zwischen die erste Scene von Film und eine 30min später.


      KONKLUSION:
      Der Direktor Intent pro Bild für HDR Effekt, Bilddynamik, Helligkeit und Farbe sollte man am besten respektieren durch schlau Tone Mapping bis zu Frame Peak (oder Highlight Knee) und ein passende target Nits.
      Und der Direktor Intent bezüglich relativ Helligkeit muss vor allem betrachtet werden für folgende Frame innerhalb das gleiche "Shot", bzw. Scene.


      Sooo, ich hoffe, dass es euch alle bischen mehr Klarheit bzgl. Direktor Intent schafft.


      Flo :bier:
    • Erstmal danke für die Zusammenfassung! :bier:

      Soulnight schrieb:

      - Vierte Möglichkeit: Target Nits 150nits und man komprimiert alles zwischen 150nits und 300nits (frame Peak).
      Das ist ein sehr gute Kompromiss!
      Man muss nur bischen komprimieren, das Bild enthäht noch HDR Effekt, und ist hier nur 3 mal dunkler als der Direktor Intent.
      Was die absolute Leuchtdichte angeht, ist dreimal dunkler richtig. Aber ich denke, davon sollten wir uns sowieso davon lösen, weil sie ohne Umgebungskompensation keine reelle Bedeutung hat. Bei dem Beispiel oben wäre ja der Weißpunkt gegenüber SDR auf demselben Projektor nur um 1,5 mal dunkler. Das ist klingt dann auch gleich nicht mehr so dramatisch. ;)
    • Endlich mal eine so umfassende Erläuterung in dt. und dann noch nicht über 100 mio. Seiten verteilt :silly: Vielen lieben Dank! Aber irgendwie beschleicht mich das Gefühl, dass ich keine aktuelle MadVR-Version habe.
      Woher bekomme ich denn die aktuellen Betas? Bisher nutze ich immer nur die v0.92.17 von madVR.com.
      NVidia Shield / Xbox One S --- Philips 65PUS8102 / JVC X5000 --- Denon X4400 - iNuke NU3000DSP --- 5.2.4 KinSat20 / Sica 15S3PL8 DBA
      Das MoWoKi
    • Anleitung für beide Varianten von dynamischen Target Nits mit madVR

      Wie versprochen, hier eine Anleitung für beide Varianten von dynamischen Target Nits mit madVR 8)

      Ausgangspunkt: Funktionierende offizielle madVR Installation (aktuell v0.92.17).
      -> damit hat man schon die dynamische Gammakurve abhängig vom Frame Peak

      Wer bei Null anfängt, kann sich an Bernds Anleitung orientieren und/oder unsere settings.bin verwenden:
      projectiondream.com/download/madvr-settings-bin

      Erst weitermachen, wenn die offizielle Version stabil läuft! :jump: :yes:

      Variante 1: Live Algo

      Dafür muss man nur eine der neueren madVR Betas installieren. Bitte im Hinterkopf behalten, dass es eine Beta ist! Hier der Link zur aktuellsten:

      madshi.net/madVRhdrMeasure78.zip

      Die entpackten Dateien in das Verzeichnis mit der installierten madVR Version kopieren und dabei die existierenden Dateien ersetzen. Danach in den madVR Settings prüfen, dass es unter HDR die Option "Apply target nits selection" gibt:

      madVR Beta hdr.PNG

      Damit sollte der Live Algo schon laufen! Da wir selbst die letzten paar Betas noch nicht versucht haben, geben wir hier KEINE Empfehlung für die Einstellungen.


      Variante 2: Das Tool

      Ich empfehle, das Tool zu installieren. Die .exe funktioniert aber sonst auch. Man braucht für unser Tool mindestens die Measure Beta V40. Die aktuelle Version sollte aber auch gehen.

      Hintergrund: Die madVR Measure Betas enthalten die Datei madMeasureHDR.exe, mit der für ein HDR-Video eine *.measurements-Datei erstellt werden kann. Diese enthält:

      - verschiedene berechnete Kennzahlen wie maxCLL, maxFALL, durchschnittlicher FALL etc. Das sind die richtigen aus dem Video gemessenen Werte, nicht Metadaten, die meist falsch sind!
      - eine Aufteilung des Videos in "Szenen" mit den jeweiligen Peak Nits der Szenen.
      - die maximale Helligkeit je Frame (Frame Peak)
      - ein Histogramm je Frame, das die Helligkeitsverteilung enthält
      - ein Histogramm je Frame, das die Farbtonverteilung enthält

      Ursprünglich hat Madshi die measurements entwickelt, um die dynamische BT2390-Kurve je Frame so zu wählen, dass NIE geclippt wird (im Live Algo kann dagegen schon mal unkontrolliert geclippt werden).


      Unser Tool "missbraucht" die Daten aus der *.measurements-Datei, um

      a) kontrolliertes dynamisches Clipping anzuwenden, damit weniger komprimiert werden muss (wir erlauben nur eine sehr kleine geclippte Fläche je Frame)
      b) dynamische Target Nits je Frame zu ermitteln.

      Beides wird durch Anpassungen in der *.measurements-Datei angewendet. Für das Clipping wird der Frame Peak durch den geclippten Peak ersetzt. Die Target Nits je Frame werden einfach in der Datei an das Ende drangehängt (das wird von madVR erkannt und verwendet).


      Was macht also unser Tool technisch?

      1) Angegebene Ordner nach Videodateien durchsuchen (mkv, ts, mp4, webm)
      2a) falls es keine *.measurements-Datei dazu gibt -> Aufruf von Madshis madMeasureHDR.exe (braucht für ein 2h HDR Video mit unserer GTX1080TI ca. 20 Minuten. Im LAV-Filter prüfen, dass D3D11 nativ verwendet wird!)
      2b) Falls schon eine originale *.measurements-Datei existiert, wird diese verwendet
      3) Berechnungen für dynamisches Clipping und Target Nits
      4) Sicherung der originalen *.measurements-Datei in Ordner "Original" (diese Datei hat zur Erstellung 20 Minuten gebraucht, die will man auf keinen Fall verlieren)
      5) Erstellung der angepassten *.measurements-Datei


      Was machen die verschiedenen Einstellungen?


      madMeasureTool.PNG

      "Choose file", "Choose path(s)", "restore original measurements" versteht sich von selbst.

      "delete all measurements" wird nicht mehr wirklich benötigt. Der Button ist noch aus einer Zeit, als das Format der Measurements-Datei noch nicht final war. Die Zeiten sind zum Glück längst vorbei

      "Path of madVR installation" wird benötigt, um die madMeasureHDR.exe aufrufen zu können.

      "Path to save measurements files" am besten so lassen. In madVR gibt es zwar die Möglichkeit, einen Pfad für alle measurements-Dateien anzugeben, aber da wir das selbst nicht verwenden, testen wir die Option im Tool bei Änderungen nicht wirklich. Ich glaube, es funktioniert nichtmal.

      Rechts kann man Haken setzen:
      - Apply dynamic clipping: Dann wird der Algo für dynamisches Clipping angewendet und die Frame Peaks in der measurement Datei entsprechend angepasst
      - apply target nits selection: Dann werden je nach EInstellungen die dynamischen/statischen Target Nits gesetzt und die measurements Datei entsprechend angepasst.
      - Auto Start: Beim Öffnen des Tools wird sofort die Verarbeitung mit den letzten EInstellungen gestartet.
      - do not measure: Videodateien, für die noch keine measurements-Datei existiert, werden übersprungen.

      "Start!" startet die Verarbeitung

      EInstellungen für Target Nits:

      - Haken bei "Dynamic": wenn der Haken raus ist, wird nur ein statisches Target für die gesamte Videodatei berechnet! Also besser drin lassen.

      - FALL Algo: Dieser Algo ist am meisten gestestet und optimiert worden, kann also gefahrlos verwendet werden (Das ist der Algo, den Madshi in den madVR Live Algo übernommen hat)
      - BT2390 Algo: Relativ neu und noch nicht intensiv getestet.
      - Manual: Nur für statisches Target. Das kann man dann darunter eintragen. Ist seit dynamischem Target überflüssig geworden.

      Ob man sich nun für den FALL Algo oder den BT2390 Algo entscheidet, ist persönliche Präferenz. Mir ist der BT2390 Algo z.B. noch nicht stabil genug.

      "minimal target nits / real display peak nits": Helligkeit in Nits, die man tatsächlich an der Leinwand bekommt.

      Unter "advanced dynamic target settings":

      dynTargetSettings.PNG

      - maximal target nits: Obergrenze für das Target. Bei der Default Einstellung 1500 wird es extrem selten verwendet. Mit 50 Nits an der Leinwand macht die Grenze bei 1500 SInn. Wenn man mehr als 100 Nits an der Leinwand hat, kann man hier auch auf 4000 Nits gehen.

      -dynamic tuning: DER Regler, mit dem sich HDR-Effekt <-> Helligkeit einstellen lässt. Ein niedriger Wert erhöht die Helligkeit, ein höherer Wert erhöht den HDR-Effekt. Das ist abhängig von den tatsächlichen Nits an der Leinwand und vom persönlichen Geschmack. Die meisten wählen etwas zwischen 75 und 150. Einfach mal ausprobieren

      - no compression Limit: bis zu dieser Grenze wird Target Nits = Peak Nits gesetzt (aber nie kleiner als Nits an der Leinwand). Für den FALL-Algo wird diese Grenze zusätzlich als Basis verwendet, daher empfehlen wir 150 Nits, Für den BT2390 Algo auf 0 setzen, weil hier schon auf andere Art sichergestellt wird, dass 0-100 Nits nicht komprimiert wird.

      - time for rolling average in frames: Die Target Nits werden durch ein Rolling Average geglättet. Hier gibt man die Anzahl der Frames ein, über die dieses Rolling average berechnet wird. EIne höhere Zahl glättet mehr, wodurch sichtbare Anpassungen reduziert werden. 240 Frames ist unser Default.


      Bei den letzten 3 Einstellungen geht es darum, wann und wie oft ein Reset des Rolling Average gemacht wird. Idealerweise würde man bei einem Szenenwechsel einen Reset machen. Man will z.B. nicht über einen Sprung von einer dunklen Szene mit FALL 10 auf eine helle Szene mit FALL 100 "drüberrollen", weil so eine Helligkeitsanpassung sogar mit 240 Frames Rolling Average sichtbar sein wird.

      Die Szenen in der Measurement Datei sind nicht dafür geeignet, weil jeder Kamerawechsel als neue Szene erkannt wird. Daher Kombinieren wir diese Szenen zu "Kapiteln".

      - merge scenes: aufeinanderfolgende Szenen werden zusammengefasst, wenn sich der FALL weniger als x% ändert. Je höher man hier geht, umso mehr Szenen kombiniert man. Wir haben 100% als default.
      - minimal chapter duration: aktuell empfehlen wir 0, da wir hier eine neue Logik eingebaut haben, die wir noch überarbeiten ("Sandwich").
      - merge chapters: aufeinanderfolgende Kapitel werden zusammengefasst, wenn sich der durchschnittliche FALL weniger als x% ändert. Wir haben hier 50%.


      Anna :saint:
    • Moin,
      auch Dir vielen Dank für Deine ausführliche Beschreibung, Anna. :thumbsup:
      Nun ist mir auch das Zusammenspiel der versch. Tools klar. Es gibt also nur ein Tool (von madshi) dass die Videofiles analysiert, als Ergebnis wird das measurement-File ausgeworfen. Darauf aufsetzend gibt es nun versch. Möglichkeiten dieses zu nutzen.
    • Moe85 schrieb:

      Endlich mal eine so umfassende Erläuterung in dt. und dann noch nicht über 100 mio. Seiten verteilt :silly: Vielen lieben Dank! Aber irgendwie beschleicht mich das Gefühl, dass ich keine aktuelle MadVR-Version habe.
      Woher bekomme ich denn die aktuellen Betas? Bisher nutze ich immer nur die v0.92.17 von madVR.com.
      Diese zwei brauchst Du zum überleben: :)
      avsforum.com/forum/24-digital-…apping-projector-194.html Hier ist immer die aktuelle beta Entwicklerversion von madVR drin.
      avsforum.com/forum/26-home-the…clipping-target-nits.html das Ana&Flo-Tool



      Dann noch ein großes Danke für die Beiträge oben, welches alles komprimiert erklären. Super.

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von DoXer ()

    • DoXer schrieb:

      avsforum.com/forum/24-digital-…apping-projector-194.html Hier ist immer die aktuelle beta von madVR drin.
      "drin" ist der richtige Ausdruck - wenn ich das richtig sehe dann taucht da zwischendurch irgendwann immer mal ein Hinweis und Link auf eine neue Beta auf. Wenn man da nicht regelmäßig mitliest dann geht das im Rauschen unter. Ein fester Link á la madvr.com/beta wo sich immer die neuste Beta findet wäre mal ganz schön... :)
    • Habe oben in meinen Beitrag mal Beta mit Entwicklerversion ersetzt.

      Man sollte bedenken, alles was wir hier die letzten Wochen über HDR mit madVR diskutieren ist absoluter Entwickler-Status. Man kann froh sein, davon jetzt schon zu partizipieren. Daher sollte nicht erwartet werden immer die neuesten Infos auf dem Serviertablet präsentiert zu bekommen, ein bisschen Eingeninitaitive sollte man schon aufwenden. Ansonsten warten bis die neue Version auf madshies Seite erscheint.
    • DoXer schrieb:

      Daher sollte nicht erwartet werden immer die neuesten Infos auf dem Serviertablet präsentiert zu bekommen, ein bisschen Eingeninitaitive sollte man schon aufwenden.
      Naja, einen einfachen Folder zu erzeugen der bleibt und dort eine Datei abzulegen hat ja nun nix mit "Serviertablet" zu tun...
      Man muss es denen, die sich ja letztlich durch ihr Feedback auch an der Entwicklung beteiligen nicht künstlich schwer machen...
    • Vielen Dank für die Erklärungen, das ist wirklich sehr interessant.

      Soulnight schrieb:

      1) Beamer besitzer schauen Filme in völlig abgedunkelten Räumen. Häufig sogar schwarz verkleidet.
      Die Helligkeit für in der Mastering hinterlegt ist aber generell für Fernseher mit fremdlicht im Raum.

      Also im abgedunkelte Raum braucht man weniger Helligkeit, als was mit Fremdlicht vorgesehen war.
      Man kann also dunkler anschauen.

      2) Beamer besitzer haben deutlich größere Leinwandfläche als die Masteringmonitoren. Je größer die Fläche und Bildsichtwinkel, desto heller (subjektiv) wirkt das Bild.
      Entsprechend kann man wieder dunkler schauen, als im Mastering vorgelegt ist.

      Bei 1) und 2) heißt, dass man zu madVR lügen kann, und ein höhere Display Target nits angeben kann, als msn tatsächlich hat.
      Gibt es denn hier eine Faustregel, abhängig von der Leinwandgröße, um welchen Faktor man die tatsächliche Helligkeit erhöhen sollte für die Angabe in madVR und euerm Tool?

      AKJ89 schrieb:

      -dynamic tuning: DER Regler, mit dem sich HDR-Effekt <-> Helligkeit einstellen lässt. Ein niedriger Wert erhöht die Helligkeit, ein höherer Wert erhöht den HDR-Effekt. Das ist abhängig von den tatsächlichen Nits an der Leinwand und vom persönlichen Geschmack. Die meisten wählen etwas zwischen 75 und 150. Einfach mal ausprobieren
      Oder sollte man bei Verwendung eures Tools lieber nur über dynamic tuning regeln?
    • In real nits /min Target Nits, lieber der echte Nits Zahl geben.

      So schaust du zwar doch 1:1, wenn der Frame Peak unter dein Real Nits ist, aber da es ist für dunkle Scenen ist die original Helligkeit trotzdem angenehm. :)

      Meine Erklärung war eher da, um zu erklären , warum wird das Tool deutlich höhere Target Nits dynamisch verwenden, als was ihr als Real Nits im Tool eingetragen habt.

      Mit dynamik Tuning kann man ja der hdr Effekt weiter regeln.
    • deathbringer schrieb:

      Gibt es denn hier eine Faustregel, abhängig von der Leinwandgröße, um welchen Faktor man die tatsächliche Helligkeit erhöhen sollte für die Angabe in madVR und euerm Tool?
      Ich denke, so pauschal kann man keine Faustregel aufstellen. Die günstigsten Einstellungen hängen von verschiedenen Faktoren ab:

      - Leuchtdichte auf der Leinwand
      - Leinwandgröße (größer darf tendenziell etwas dunkler sein)
      - Vorliebe, was die maximale Leuchtdichte angeht
      - Kompromissbereitschaft in Bezug auf die Leuchtdichte im Vergleich zu SDR

      Man muss sich immer klar machen: je mehr man für Highlights reserviert, desto dunkler wird der Rest (und relevantere Teil) des Bildes. Bei Leuchtdichten < 15 fL ist für mein Empfinden praktisch keine Reserve dafür vorhanden. SDR sieht auf einer Leinwand mit 15 fL (50 Nits) gut aus, erst richtig gut aber mit 30 fL (100 Nits). Dann kann man auch schon in den unteren Stufen Farben wahrnehmen, die bei niedrigeren Leuchtdichten die Zapfen nicht anregen.
      Nun kann man sich entweder daran gewöhnen, dass bei HDR die unteren und mittleren Töne dunkler sind oder man komprimiert die Highlights stärker und zieht damit alle anderen Töne weiter nach oben. Tut man letzteres, so gleicht sich das Bild bezogen auf die Gradation immer mehr der SDR-Version an (man behält natürlich trotzdem den größeren Gamut, bessere Durchzeichnung und die höhere Auflösung). In diesem Fall bringt einem dynamisches HDR praktisch keinen Vorteil, weil man sowieso immer stark komprimiert. Man hat zwar kein HDR mehr (also bezüglich der Highlights), aber das Bild wirkt hell und kontrastreich. Der Directors Intent wird zwar hinsichtlich HDR verletzt, aber dafür nicht hinsichtlich SDR bzw. Kino (das Blu-ray-Pendant wurde ja mit Absicht so gegradet wie es ist).

      Ich kann nur sagen, dass die volle Kompression bei geringen Leuchtdichten (ich habe 12 fL auf 4 m Breite) am besten aussieht. Je höher die maximale Leuchtdichte auf der Leinwand ist, desto mehr Reserve kann man für die Highlights lassen. Aber am Ende muss man das für sich selbst entscheiden. Es gab schon immer Hell- und Dunkelkucker. Ähnlich wie bei der Lautstärke beim Ton. ;)
    • follgott, genau so ist es, wenn man ein festes Target verwendet :thumbup:

      Wenn man aber dynamische Target Nits verwendet, muss in das Feld "real Display nits" die tatsächlich an der Leinwand gemessene Helligkeit. Das geht dann in die Target Berechnung je Frame ein. Der Regler für Helligkeit vs. HDR Effekt ist in diesem Fall "dynamic tuning". Kleineres Dynamic Tuning ergibt kleinere Target Werte und somit mehr Helligkeit und umgekehrt: größeres Dynamic Tuning ergibt größere Target Werte und somit mehr HDR Effekt.

      Dazu hat man noch den Vorteil, dass man Frames mit Peak kleiner als Real Display Nits genau so schaut, wie sie sein sollen, 1:1 richtige Helligkeit und keine Komprimierung. Das macht dunkle Szenen und Filme schön plastisch.

      Anna :gruss:
    • Gibt es di Möglichkeit unterschiedliche Profile für unterschiedliche Aspect Ratios anzulegen? In 21:9 habe ich auf Grund eines größeren Zooms ~80Nits und und in 16:9 ~100Nits zur Verfügung. Oder hilft da nur die Blende bei 16:9 etwas zu schließen und mich auf die maximal 80Nits des größeren Zoombereiches festzulegen?
      NVidia Shield / Xbox One S --- Philips 65PUS8102 / JVC X5000 --- Denon X4400 - iNuke NU3000DSP --- 5.2.4 KinSat20 / Sica 15S3PL8 DBA
      Das MoWoKi
    • Nein, die Profile gehen nur über MadVR. Das wird dir in dem Fall aber nichts bringen, weil nicht auf mehrere unterschiedliche Dateipfade zugegriffen werden kann. Wenn ein Film aber bspw. Format 1.78 ist, dann weist du das ja, bevor du das Analysetool drüberlaufen lässt. Für diesen Film würde ich dann andere Einstellungen wählen.
    • Moe85 schrieb:

      Gibt es di Möglichkeit unterschiedliche Profile für unterschiedliche Aspect Ratios anzulegen? In 21:9 habe ich auf Grund eines größeren Zooms ~80Nits und und in 16:9 ~100Nits zur Verfügung. Oder hilft da nur die Blende bei 16:9 etwas zu schließen und mich auf die maximal 80Nits des größeren Zoombereiches festzulegen?
      Mit der Live algo (ohne Tool) geht das ganz einfach mit 2 verschiedene Profile abhängig von der Format. Allerdings, nur wenn Black Bar Erkennung aktiviert ist (funktioniert nicht in Zusammenhang mit D3d11 in lavfilter).

      Mit dem Tool geht es zur Zeit nicht.
      Allerdings 80 und 100nits sind ja nicht so weit auseinander. Mit der Fall algo wird dieses Real /minimal Target Nits eh nur als Untergrenze verwendet.
      Schreib 90 stattdessen und gut ist.

      :)
    • Was meinst du funktioniert nicht? Ich nutze die Black Bar Erkennung inkl. crop und shifte das Bild an den unteren Rand mit D3D11 in den Lavfiltern?! Das funktioniert zumindest problemlos. Den Sprung von 80 auf 100Nits finde ich garnicht sooo gering, das Bild hat da schon wesentlich mehr Punch. Kann aber auch daran liegen, dass das Bild kleiner ist und weniger Reflexion / Streulicht an den Seitenwänden entsteht.
      NVidia Shield / Xbox One S --- Philips 65PUS8102 / JVC X5000 --- Denon X4400 - iNuke NU3000DSP --- 5.2.4 KinSat20 / Sica 15S3PL8 DBA
      Das MoWoKi
    • Habe gerade mal geschaut, weil mir das garnicht bewusst war. Habe nun im LAV Filter die "Device" auf "automatic" gestellt statt "gtx 1080...". In der Info haben sich auch paar Sachen verändert und die Renderzeit wird zum Teil geviertelt bis halbiert. Crop und Shift funktionieren aber dennoch. Oder gibt es noch andere Stellen, an denen ich das einstelle. Bin auch verwundert, warum die Renderzeit jetzt so extrem gering ist.
      NVidia Shield / Xbox One S --- Philips 65PUS8102 / JVC X5000 --- Denon X4400 - iNuke NU3000DSP --- 5.2.4 KinSat20 / Sica 15S3PL8 DBA
      Das MoWoKi
    • Moe85 schrieb:

      Habe gerade mal geschaut, weil mir das garnicht bewusst war. Habe nun im LAV Filter die "Device" auf "automatic" gestellt statt "gtx 1080...". In der Info haben sich auch paar Sachen verändert und die Renderzeit wird zum Teil geviertelt bis halbiert. Crop und Shift funktionieren aber dennoch.
      Mit der Umstellung auf "automatic" hast Du auf "native" umgestellt. Meines Wissens (und praktischer Erfahrung) dürfte das dann nicht funktionieren (wie oben von soulnight beschrieben)...
      Ich nutze das selber und habe da viel experimentiert. Seltsam dass es bei Dir trotzdem geht.
    • AKJ89 schrieb:

      -dynamic tuning: DER Regler, mit dem sich HDR-Effekt <-> Helligkeit einstellen lässt. Ein niedriger Wert erhöht die Helligkeit, ein höherer Wert erhöht den HDR-Effekt. Das ist abhängig von den tatsächlichen Nits an der Leinwand und vom persönlichen Geschmack. Die meisten wählen etwas zwischen 75 und 150. Einfach mal ausprobieren
      Ich hab gestern mal etwas experimentiert, aber da scheint noch ein Bug zu existieren. Ich hatte ursprünglich die Settings zum BT2390 verwendet, die ich im avs Forum gefunden hatte: Maximal target nits 10.000, Dynamic tuning 100, no compression limit 0.
      Nun war mir das Bild damit zu aufgehellt und ich wollte den HDR-Effekt erhöhen, habe dann Dynamic tuning auf 200 gestellt, aber das Bild wurde dadurch noch heller. Habe dann auf 50 gestellt, und das Bild wurde deutlich dunkler. Also genau entgegengesetzt zur Beschreibung, niedriger Wert erhöht den HDR-Effekt, hoher Wert erhöht die Helligkeit.

      Mit 50 war es mir dann aber zu dunkel, sogar dunkler als wenn ich HDR passthrough wähle. Ich habe mich dann versucht in 5er-Schritten ranzutasten, allerdings hat das bei mir nicht richtig funktioniert. Bei Werten von 50-70 gab es keine Veränderung, mit 75 dann ein riesen Sprung, das sieht genauso aus wie mit 100. Sollte da nicht ein fließender Übergang stattfinden?

      Hier meine Einstellungen:
      madVR_HDR.PNG
    • Wie Anna geschrieben hat und wie man in avsforum lesen kann, ist der bt2390 algo noch Experimental und in der Entwicklung.

      Der Fall Algo ist der jenige, dass man zuerst verwenden sollte. :) Viel mehr getestet. :) Und sehr viele positive Feedback.
      Ist auch der jenige, der in der Live algo bis jetzt eingesetzt wurde.

      Trotzdem interessante Feedback. Werde ich mir anschauen.
      Kannst du Screenshot posten, wo du dieses Verhalten gesehen hast?

      Danke,
      Flo
    Abonnement verwalten