Im AVSForum gab es bereits diverse Diskussionen (hier und hier) um die Frage, welches Gamma das Anzeigegerät denn nun haben soll.
Laut Poyntons Gamma FAQ und diverser Literatur soll das Quellmaterial mit einem Gammafaktor von 0,45 vorverzerrt werden, so dass sich auf einem Anzeigegerät mit Gamma 2,5 ein Gesamtgamma (also von Kamera bis Anzeigerät) von mindestens 1,1 ergibt. Die Begründung liegt in der meist gedimmten Umgebung und dem Simultankonstrast. Argumentiert wird, dass mit einem Gesamtgamma von 1 das Bild zu ausgewaschen und die Farben zu blass wirken. Wer einmal einen guten 9 Zoll CRT mit Gamma 2,5 gesehen hat, wird dies bestätigen.
Die Gegenseite hält dagegen, dass im Standard ein Gammafaktor von 2,2 (1/0,45) spezifiziert ist, also ein Gesamtgamma von 1. Ich frage mich jetzt nun, wie denn eigentlich die Monitore beim Mastering kalibriert sind. Wird dort auch 2,2 benutzt?
Ein falscher Gammafaktor verzerrt bekanntlich den Helligkeitsbereich, also werden
1. die IREs unterschiedlich stark betont (z.B. mehr Zeichnung in den unteren IREs), was wiederum dazu führt, dass
2. die Sättigung über dem gesamten Bereich nicht mehr linear ist!
Und gerade der zweite Punkt gibt mir etwas zu denken. Ich habe mal auf ein Gamma von 2,2 und einmal auf 2,5 kalibriert und die Fehler der Sättigungen verglichen.
Wie zu sehen, ist die Abweichung der Sättigung bei 2,2 nahe 0%. Besser konnte ich den hier verwendeten Monitor nicht kalibrieren.
Bei einem Gamma von 2,5 dagegen wird der Wert der mittleren Sättigungsstufen deutlich angehoben. Die Farben werden kräftiger.
Oft wird einfach behauptet, Gamma sei Geschmackssache. Das kann ich als Ingenieur aber nicht akzeptieren. Für definierte Gegebenheiten (z.B. minimal reflektierender Raum, xx cd/m² Maximalhelligkeit, Kontrast xxxxx:1) muss es doch einen Gammafaktor geben, der einen Bildeindruck erzeugt, der dem unter Masteringbedingungen (SMPTE, ITU) nahe kommt.
Ist hier jemand unter uns, der weiß, unter welchen Bedingungen normalerweise DVDs, Blu-Rays oder auch TV-Material bearbeitet werden?
Laut Poyntons Gamma FAQ und diverser Literatur soll das Quellmaterial mit einem Gammafaktor von 0,45 vorverzerrt werden, so dass sich auf einem Anzeigegerät mit Gamma 2,5 ein Gesamtgamma (also von Kamera bis Anzeigerät) von mindestens 1,1 ergibt. Die Begründung liegt in der meist gedimmten Umgebung und dem Simultankonstrast. Argumentiert wird, dass mit einem Gesamtgamma von 1 das Bild zu ausgewaschen und die Farben zu blass wirken. Wer einmal einen guten 9 Zoll CRT mit Gamma 2,5 gesehen hat, wird dies bestätigen.
Die Gegenseite hält dagegen, dass im Standard ein Gammafaktor von 2,2 (1/0,45) spezifiziert ist, also ein Gesamtgamma von 1. Ich frage mich jetzt nun, wie denn eigentlich die Monitore beim Mastering kalibriert sind. Wird dort auch 2,2 benutzt?
Ein falscher Gammafaktor verzerrt bekanntlich den Helligkeitsbereich, also werden
1. die IREs unterschiedlich stark betont (z.B. mehr Zeichnung in den unteren IREs), was wiederum dazu führt, dass
2. die Sättigung über dem gesamten Bereich nicht mehr linear ist!
Und gerade der zweite Punkt gibt mir etwas zu denken. Ich habe mal auf ein Gamma von 2,2 und einmal auf 2,5 kalibriert und die Fehler der Sättigungen verglichen.
Wie zu sehen, ist die Abweichung der Sättigung bei 2,2 nahe 0%. Besser konnte ich den hier verwendeten Monitor nicht kalibrieren.
Bei einem Gamma von 2,5 dagegen wird der Wert der mittleren Sättigungsstufen deutlich angehoben. Die Farben werden kräftiger.
Oft wird einfach behauptet, Gamma sei Geschmackssache. Das kann ich als Ingenieur aber nicht akzeptieren. Für definierte Gegebenheiten (z.B. minimal reflektierender Raum, xx cd/m² Maximalhelligkeit, Kontrast xxxxx:1) muss es doch einen Gammafaktor geben, der einen Bildeindruck erzeugt, der dem unter Masteringbedingungen (SMPTE, ITU) nahe kommt.
Ist hier jemand unter uns, der weiß, unter welchen Bedingungen normalerweise DVDs, Blu-Rays oder auch TV-Material bearbeitet werden?
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von FoLLgoTT ()