Ich hab mal wieder bei einem kommerziellen Blogger auf der Website verblüfft gesehen, was Dynamikumfang ist. Er hat zur Veranschaulichung einen “Graukeil” mit 20 Stufen abgebildet und geschrieben, das wären jetzt 20 Stufen Dynamik. Die “Gesamtzahl der Stufen zwischen Schwarz und Weiß definiert den Dynamikumfang.”
Das Thema ist nicht ganz einfach, ich versuche es mal anders:
Aaalso. Fangen wir mal an, wie wird überhaupt der Dynamikumfang eines Sensors angegeben? In Lichtwerten. “Exposure Values” = EV. Jeder Lichtwert mehr ist doppelt so viel Licht. Das ist zwar rechnerisch “stufig” aber in der Wirklichkeit gibt es keine Stufen. Ein “Graukeil” ist etwas ausgesprochen analoges.
Unser Auge kann – Überraschung – 7 Lichtwerte sehen. Wird es mehr, müssen wir mit der Pupille abblenden. Falls jemand noch einen Roman auf Papier zuhause hat oder tatsächlich seine Tageszeitung noch am Kiosk kauft, dem wird aufgefallen sein, dass dieses Papier nicht weiß ist. Das ist gelblich oder gräulich. Das hat nichts damit zu tun, dass das besonders billig wäre oder Recycling oder so. (Munken Pure, ein gelbliches Buchdruckpapier, ist weder recycling noch billig.) Das dient dazu, den Kontrast zwischen schwarzer Farbe und Papier zu verkleinern, damit man das ermüdungsfrei lesen kann. Denn zwischen weißem Bilderdruckpapier und schwarzer Farbe sind es 8 Lichtwerte. Und deshalb würde da längeres Lesen Augen- bzw Kopfaua machen. (Publikationen, die hochweißes Papier verwenden – wg. Bilderchen – nutzen oft eine dunkelgraue Schrift, statt schwarz.)
8 Lichtwerte sind – welch Zufall – das Maximum, das ohne Kompression in einem 8bit-JPG gespeichert werden kann.
Eine Nebelszene in der Natur hat oft nur zwei oder drei Lichtwerte Dynamikumfang. Spätestens bei 12 Lichtwerten Dynamikumfang gibt das Auge auf. Das Auge kann zwar sehr dunkle Dinge wahrnehmen, aber eben nicht gleichzeitig helle Dinge. Und umgekehrt.
12 Lichtwerte ist grob das, was man in ein 12bit-RAW packen kann.
So. Und was bestimmt nun den Dynamikumfang eines Sensors einer Kamera und warum ist das wichtig?
Der Dynamikumfang eines Sensors wird ganz entscheidend von der Anzahl der Photonen bestimmt, die in ein Pixel passen.
Ein Beispiel:
In ein Pixel passen 200.000 Photonen rein. Dann ist es voll – Sagen wir, es wurde so belichtet, dass das 12 EV entspricht. Das ist grob die Helligkeit eines bewölkten Tages. 100.000 Photonen sind dann 11EV und so weiter, dann sind wir bei 48 (!) Photonen für 0 EV. (Was in etwa der Helligkeit einer Vollmondnacht entspricht.) Wenn man jetzt davon ausgeht, dass bei 200.000 Photonen auch nur 0,1% Irrläufer dabei sind, dann sind das 200 Photonen. Alles unterhalb von 3EV (390 Photonen) ist damit nur noch reine Raterei. Und diese Raterei sieht man, wenn man ein 12bit-RAW in den Schatten stark aufhellt. Man nennt das “Rauschen”.
Nun haben aber die allermeisten heutigen Kamerasensoren keinen Dynamikumfang von 12EV, sondern von 14EV und mehr. (Auch die von Olympus!). Nun könnte man da natürlich ein 14bit RAW draus machen, und hätte einen viermal (!) so hohen Dynamikumfang. Theoretisch. Praktisch scheitert das an ein paar simplen Dingen:
- wir können immer noch nur 8EV sehen. Die Kamera müsste also den Dynamikumfang von 14EV auf ein vierundsechzigstel runterrechnen. Da die meisten realen Szenen kaum mehr als 11EV Dynamikumfang haben, würden durch diese Dynamikkompression die Bilder flau werden. Das hat Nikon anfangs gemacht. Die ganzen Bilder aus den Nikons waren das erste Jahrzehnt typisch flau. Ohne RAW-Konverter war das nicht zu verwenden. Noch krasser war es bei der Fuji S3pro – die hatte einen High-Dynamic-Modus, der unbezahlbar bei Hochzeitsfotografie war, aber in allen anderen Fällen miese aussah.
- Es gibt keine Möglichkeit, 14EV am Bildschirm anzuzeigen. 10 EV ist schon das Höchste der Gefühle und macht – siehe oben – mit der Zeit Kopfaua.
- Selbst wenn man den Sensor auf 400.000 Photonen pro Pixel aufpumpt, sind beim letzten Lichtwert nur noch 24Photonen. Und 24 Photonen können halt selbst dann, wenn nix rauscht, nur 24 verschiedene Helligkeitswerte darstellen. In den Schatten ist halt nun mal “nix drin”. Um 14bit Helligkeit auch “untenrum” darstellen zu können, braucht man eben 16.000 Photonen. Das sind selbst beim Monstersensor 8 Lichtwerte und damit landen wir bei einer Vollfarbdynamik von 4 EV.
Und jetzt sind wir beim nächsten Thema, das mit der Dynamik zu tun hat: ISO. Da wird ja nicht der Sensor empfindlicher gemacht oder irgendwelche Ausgangssignale verstärkt. Da wird nur das Signal anders ausgewertet. Das ist ausgesprochen komplex und ich versuche es jetzt vereinfacht darzustellen:
Je mehr Photonen in das Pixel passen, desto höher der Dynamikumfang und desto besser die ISO-Performance. Denn bei der Erstellung des Bildes werden ja normalerweise nicht die 12EV des RAWs oder die 15EV des Sensors verarbeitet, sondern nur das, was halbwegs sauber ist und ein natürliches Bild mit 8EV Dynamikumfang gibt. Jede ISO-Stufe verschiebt dieses “Fenster”, mit dem auf die gesamten Daten gekuckt wird, nach unten. Bei ISO 800 und dem Monstersensor sind wir bereits beim Bereich 100.000 Photonen bis 390 Photonen. Da kann man selbst in den Schatten noch ganz vernünftige Farben herkriegen. Bei ISO 3200 sind wir bei 25.000 bis 97 Photonen. Aber wir sind bereits jenseits der 12bit, die das RAW speichern kann. Die Kamera muss also bei ISO 3200 in einem Bereich rumkramen, den die Kamera im Normalfall ignoriert. (Früher nannte man das “erweiterter ISO-Bereich”). Und bei ISO 25600 haben wir oben noch 3126 Photonen – und unten noch 12 Photonen. Da die Kamera schon selber weiß, dass das da unten nur noch blanke Raterei ist, beschränkt sie in dem Bereich die Dynamik.
Und das ist nun der Hype um den es beim Dynamikumfang geht. Mehr ISO. Früher gab es tatsächlich das Problem, dass die Sensoren nicht mehr als 9EV Dynamikumfang konnten. Und das ist halt wirklich gelegentlich ein Problem. Aber seit Jahren sind die Sensoren so leistungsfähig, dass sie viel mehr können, als wir kucken können. Es ist nur eine Frage, wie die Kamera vom Hersteller abgestimmt wird.
Der Dynamikumfang, den entsprechende Testportale “messen”, ist wieder eine völlig andere Nummer. Man “misst” nicht den Dynamikumfang des Sensors, sondern die Signalverarbeitung des Prozessors. Denn der packt nicht stumpf 12EV in 12bit, sondern baut auch, wenn es die Szenerie und das Licht erlauben, mittels Dynamikkompression mehr in das Bild. Genauso werden aus dem 12bit RAW nicht stumpf einfach 4bit abgeschnitten, sondern es wird je nach Bild und JPG-Entwicklungsvorgaben (Gradationskurve) die Dynamik beschränkt (z.B. im Nebel) oder erweitert (bei Hochkontrastbildern). Aus diesen “Messergebnissen” auf den Sensor zu schließen, ist also falsch. Man kann damit lediglich feststellen, dass eine bestimmte Kamera in bestimmter Firmwareversion bei dieser bestimmten Lichtsituation die Dynamik auf diese bestimmte Weise behandelt. Bei einer anderen Lichtsituation wird eine moderne Kamera wieder völlig anders reagieren. Da jeder Hersteller oft bei jeder Kamera unterschiedliche Abstimmungen verwendet – entsprechend der Zielgruppe – sind diese “Messergebnisse” im besten Fall unverbindliche Anhaltspunkte. Aber eigentlich sind sie nichts wert. Wichtig ist, ob einem die Bilder gefallen, die die Kamera produziert.
Es ist also wieder eine Diskussion um des Kaisers Bart. Ja, die Dynamik eines Sensors war mal ein Thema. Nein, sie ist es nicht mehr. Und wer den möglichen Dynamikumfang eines aktuellen Sensors ständig ausreizen will, landet im Allgemeinen bei extrem unnatürlich aussehenden Bildern. Manche finden die geil – für mich persönlich ist das ziemlich vom letzten Jahrzehnt….. Und ob die Messwerte nun 13,6 oder 14,1 EV Dynamik ausweisen ist komplett irrelevant. Siehe oben.
Die Fotos sind natürlich HDRs aus dem Computer. Oben Asgard mit DS, Mitte Borgund mit Gerüst und unten Pont du Gard. Davon ist nur das Untere noch mal zu machen…..Asgard ist tot, der DS nicht mehr fahrfähig und das Gerüst bei Borgund längst wieder abgebaut.
Moin Reinhard,
besten Dank für die ausführlichen Erklärungen.
Der entscheidende Satz ist für mich
“Wichtig ist, ob einem die Bilder gefallen, die die Kamera produziert.”
Gelegentlich habe ich das Ausreizen des Dynamikumfangs auch ausprobiert, die Ergebnisse landen meistens in der Tonne und ich sehe dann, dass ich die Aufnahme hätte anders angehen sollen.
Schöne Grüße von der gerade weniger schön verregneten Nordseeküste.
H.-J.
In ein Pixel passen 200.000 Photonen rein.
Woher kommt dieser Wert? Gruß, Hermann
Mit diesem Wert lassen sich die vorgestellten Berechnungen mit ganzen Zahlen veranschaulichen. Wie viele Photonen nun wirklich pro Pixel für einen bestimmten Helligkeitswert benötigt werden ist irrelevant, weil es hier nur im Verhältnisse geht. Mit den verwendeten Zahlen kann man sich das gut vorstellen. Weniger geht nicht ganzzahlig, dann mecker wer über 0,35 Photonen. Mehr macht die Zahlen unvorstellbar groß.
Die Zahl kommt aus einem SpecSheet eines Sensorherstellers. Allerdings sind es korrekterweise natürlich nicht Photonen, sondern Elektronenvolt, die in der Photodiode landen. Aber man kann die Sensortechnik beliebig genau erklären – so dass zum Schluss kein Mensch mehr versteht, um was es geht, der das nicht beruflich macht. Wie Helge gesagt hat, mittlerweile gibt es leistungsfähigere Photodioden. Aber die Verhältnisse ändern sich dadurch nicht.
Einen wirklich schönen “Graukeil“ hast du da mit dem alten Cit. DS abgebildet. Da lacht mein altes “Hydropneumaten-❤“ . Danke! Das mit dem Dynamikumfang erahne ich mehr nebulös, als dass ich es wirklich verstehen könnte. Liegt an meinem durchaus eingeschränkten Abstraktionsvermögen… Aber wie schon geschrieben: Hauptsache, das Bild gefällt.
Und ganz herzlichen Dank, dass du dir immer wieder die Mühe machst, uns auch komplizierte Zusammenhänge verständlich näher zu bringen.
LG, Saint-Ex
Wenn ich in der späten Dämmerung den Vollmond über dem dunklen Wald stehen sehe, dann erkenne ich die Krater auf dem Mond und noch einzelne Bäume im Wald. Auf einem Foto davon ist beim Mond ein weißer Fleck und der Wald ist eine tiefschwarze Fläche. Da hat das Auge doch eine höhere Dynamik als die Kamera, oder? Hatte ich bisher jedenfalls angenommen …
Viele Grüße,
Daniel
das täuscht. Der Mond reflektiert bekanntlich Sonnenlicht (‘Tageslicht’) und möchte entsprechend kurz belichtet werden, damit da an Helligkeit (und Farben) nichts ‘überläuft’ (clipping) mit der Folge, dass der Wald untendrunter als Silhouette rauskommt. Das Histogram verrät einigermassen zuverlässig, was da ggfls. noch so alles an Informationen enthalten ist (und da steckt dann die dynamic range) – irgendwann ist halt ‘Ende’.
Schatten hochziehen ist nur soweit möglich bis das Ratespiel des Elektronendingens einsetzt mit den bekannten Folgen des wilden ‘Auftauchens’ von hellen Pixeln und des grün/magenta-Geflimmers (readout noise). Ausreichend Licht *und* expose to the right (ETTR) ist das einzige Mittel, das hilft, um das technische Maximum aus einer Szene rauszukitzeln. Dafür kenne ich meine Kamera quasi in- und auswendig. Wenn irgendwo zu wenig Licht ist und ich will da hinterher noch vernünftig was erkennen, da *muss* da zusätzlich Licht hingetragen werden. ‘ISO hoch’ ist das Gegenteil von ETTR, reduziert den Dynamikumfang und verstärkt nur readout noise.
Ist wie auch immer geartet ‘ausreichend’ Umgebungslicht vorhanden, kann sich das Auge zum einen recht flott ‘umstellen’ und zum anderen bastelt Hirn aus der Situation als solcher und sämtlicher gemachter (Seh-) Erfahrungen sowas wie Strukturen mit dazu. (Paradebeispiel für dieses Wunder des Sehens ganz allgemein sind Farbtemperaturen. Schliesse mal an einem Tag mit so richtig Sonne die Augen für bummelig eine Minute – bei erneutem Gucken ist alles für eine kurze Zeit blau eingefärbt, bevor das Ding unter der Schädeldecke ‘weiss’ weiss werden lässt und Schatten irgendwie ‘dunkles Grau’ bis ‘tiefviolett’). Ist es so richtig zappenduster, braucht das Auge bis zu einer halben Stunde, bis sich da irgendwelche Konturen rausschälen, mit denen wir wieder was anzufangen wissen.
Ganz grundsätzlich sind Schatten das Salz in der Suppe eines Bildes. Auch ganz ganz tiefe bis hin zu pechschwarz 😉
Das Auge sieht nicht wirklich gleichzeitig die Krater und Strukturen der Bäume.
Ja ok, das passt als Erklärung. Die Augen stellen sich erst auf die Helligkeit des Mondes ein und dann auf die Helligkeit der Bäume. Hinterher werden die Bilder im Gehirn zusammengefügt und ich nehme die Situation insgesamt wahr. Dann eben mit Zeichnung in den Lichtern (Mond) und gleichzeitig in den Schatten (Bäume) und es kommt mir wie ein Bild vor.
Viele Grüße,
Daniel