React: HDR in der Fotografie

Ich sehe mir nur selten Foto-Tutorials auf YouTube an – abgesehen von den Sachen von OMSystem – weil der Unfug, der dort verzapft wird, schlicht vergeudete Lebenszeit ist. Entsprechend mache ich auch nur selten Reacts oder gar „Reaction-Videos“. Letztere schon allein deshalb nicht, weil ich nicht glaube, das der Anblick eines komplette exkalierenden RW so attraktiv ist. Abgesehen davon ist mir ganz viel Diskussion um Glaubensfragen völlig wumpe.

Aber da bin ich jetzt über ein Video von Gwegner.de gestolpert, zum Thema „HDR in der Fotografie – so nutzt Du es zu Deinem Vorteil (anders als Du denkst)„.

Es gibt zum Thema HDR zwei Standardwerke: Das HDRI-Handbuch aus dem dpunkt-Verlag von Christian Bloch, bei dem unter anderem auch Dieter Bethke ein Kapitel geschrieben hat, und das Profibuch HDR-Fotografie aus dem Franzis-Verlag. Beide Bücher sind seit Jahren vergriffen. Das Profibuch gilt als eines der 30 Bücher, die man als Fotograf gelesen haben sollte. Herr Wegner hat wohl nicht.

Das Video ist so voller Unsinn, dass es schon schwer ist, überhaupt damit anzufangen. Es fängt an damit, dass er mal flott behauptet, der Unterschied zwischen einer mondlosen Nacht im Freien und einer Mittagsszene wären 24 Blendenstufen. Jeder kann gerne mal seine Bilder durchkucken, eine Mittagsszene, Knallsonne im Süden hat etwa 15EV. 1/500s, Blende 11, ISO 200. Dann müssten wir also -9EV sehen können. Das ist in etwa halb so viel Licht, wie eine DeepSky-Aufnahme hat. Eine dunkle Neumondnacht hat -4. Tatsächlich kriegen wir mit unseren Augen mit Adaption und allen Tricks 20 Lichtwerte gebacken. Er hat sich also mal locker um den Faktor 16 verhaut. (Halt! Der Wert, den man mit der Belichtungsmessung ermittelt, ist doch der 18% Grau-Wert, da ist doch noch Luft nach oben und unten. Korrekt. Dann rechnen wir die 7 Blenden noch dazu, die wir ohne Pupillenreflex sehen können und sind bei – boa ey – 27 Lichtwerten. Das stimmt irgendwie auch nicht …)

Dann behauptet er, Kamerasensoren können nur 14 bis 15EV erfassen. Schon eine simple Hasselblad kann über 16EV. Von HDR-Sphären, die es schon seit einem Jahrzehnt gibt, ganz zu schweigen.

Dann verwechselt er statischen und dynamischen Kontrastumfang. Die Wirklichkeit hat weit mehr als die von ihm postulierten 24EV. Von der Sonnenoberfläche bis zur DeepSky-Aufnahme sind es 32 Lichtwerte – und da ist noch nicht Schluss. Nur ist das eben ein dynamischer Kontrastumfang. Diese Lichtwerte hat man nicht gleichzeitig. Auch unsere Augen können keine 20 Lichtwerte gleichzeitig, sondern gerade mal eben 7.

Der „immense Dynamikumfang der Realität“ ist weit geringer als man so gemeinhin denkt. Eine Nebelszene zum Beispiel hat zwei oder drei Lichtwerte Kontrast.

Aber keine Minute ohne Knüller: „Der Monitor hat einen geringeren Dynamikumfang als eine RAW-Datei. Das ist auch der Grund, warum ihr eine RAW-Datei zwangsläufig bearbeiten müsst“. Wie eine RAW-Datei aussieht, habe ich hier gezeigt.

Seine Erklärung zu HDR scheitert schon beim historischen Rückblick. „Die ersten Versuche mit HDR in den 2010er Jahren…“ Der „Bloch“ ist, festhalten, schon 2008 rausgekommen. Und damals war die Nummer mit HDR eigentlich schon fertig. Dieses HDR von mir stammt vom März 2007:

Wegner behauptet dann, auf den damaligen Monitoren hätten die von damaligen Programmen erstellten „HDRs“ nicht dargestellt werden können. (Ist mir neu, bei mir hat das geklappt) Und deshalb seien die ganzen Bilder so bonbonbunt gemacht worden. Kuckst Du oben. Nein. Das war Absicht von den Leuten. Man wollte Aufmerksamkeit erregen mit diesen Krachfarben. Es ging auch ohne.

Und bei dieser Geschichte hat er mich dann vollends verloren: „Man konnte erst dann von HDR sprechen, als Adobe eine Möglichkeit in Lightroom geschaffen hat, aus mehreren unterschiedlich belichteten RAW-Dateien eine RAW-Datei mit erweitertem Kontrastumfang zusammenzusetzen.“

Das ist auf soooo vielen Ebenen falsch, dass ich, um hier nicht den ganzen Bloch und das ganze Profibuch zu zitieren, einfach nur ein paar Facts auf den Tisch knalle:

Kein RAW ist ein HDR. Selbst die RAWs aus der Hasselblad sind nur 16bit. HDR-Dateien haben 32bit Fließkomma.

Schon Photoshop CS4 hatte die Möglichkeit drin, 32bit HDRs zu manipulieren. Photomatix Pro konnte 32bit HDR-Dateien erstellen. Und zwar aus RAWs. Im Jahr 2010. Hugin konnte damals schon HDR-Panoramen. Und ich meine tatsächliche, echte HDR-Panos. Hollywoodstudios haben schon im letzten Jahrtausend mit HDR gearbeitet – hat nur keiner gemerkt. Weil die es so gemacht haben, dass es nicht auffällt.

Und: Auch wenn mittlerweile viele Monitore mit „HDR“ werben, das hat mit HDR nichts zu tun. Keiner dieser Monitore kann HDR darstellen. Das sind im besten Fall 10bit-Panels, die einen statischen Kontrast von 1:1000 können. Das reicht nicht mal für das, was in einem 12bit-RAW drin ist. Lightroom blubbert von „HDR“ und liefert AVIF-Dateien aus, die maximal 12bit können. Was hat das mit 32bit HDR zu tun? Nüscht. Der korrekte Ausdruck dafür ist DRI. Dynamic Range Increase.

Nochmal, bei 12bit AVIF von HDR zu reden, ist pures Marketing. Um tatsächlich 12bit Darstellen zu können, benötigt man ein Display, das einen statischen Kontrast von 1:4000 bietet. Und ein 12-bit Panel. Und, vor allem, ein Display, das auch die Helligkeit und die Schwarzwerte herbringt um 12EV Helligkeitsunterschied auch liefern zu können.

Aba die Olys machn doch auch so HDR-Zeugs? Das ist genauso Etikettenschwindel. Das sind 8bit-DRIs. Das ist ne hübsche Funktion, hat aber mit HDR auch nichts zu tun. HDRs kriegt man, wenn die Belichtungsreihen, die man mit der HDR-Funktion bekommt, am Computer zu 32bit-HDRs zusammenbaut.

Kleines Problem bei der ganzen HDR-Sache: Das Auge kann, siehe oben, nur 7EV Kontrast ohne Pupillenreaktion. Dauerhaft 12EV ankucken macht Kopfaua. HDR bedeutet, dass ich die Sonne in Originalhelligkeit aus dem Monitor kriege – und direkt daneben die Andromeda-Galaxie sehe.

Titelbild: Die Stabkirche von Borgund während der Renovierung 2011. 2009 hatte ich dort bereits für das norwegische Denkmalschutzamt ein 32bit-Kugelpano aus 291 RAWs des Innenraums fotografiert. Mit der E-3.

21 Replies to “React: HDR in der Fotografie”

  1. Mr. Thomas Eisl in seinem wunderbaren, weana Englisch hat tatsächlich auch ein Video zum Thema HDR gemacht! Das ist aber wirklich gut und mit seiner schönen Tabelle, die er im Video zeigt, kann man auch wunderbar arbeiten.

    Vielen Dank aber einmal mehr für Deine Erklärungen!!

    1. Solltest Du das hier meinen: https://www.youtube.com/watch?v=tUdKMrkVgR4, das ist leider ebenfalls Quark. Das was die ganzen Olys intern mit ihrem Bracketing machen, ist alles DRI. „Dynamic Range Increase“ und anschließendes Tonemapping.
      HDR kennt gar kein Tonemapping, da HDR das gar nicht nötig hat. Der Gag an HDR ist, dass Du aus einem HDR-Bild eine Lightmap ziehen kannst. Du kannst also jede beliebige Beleuchtung oder Belichtung einstellen. Und die Bilder sehen immer perfekt natürlich aus. Da gibt’s kein übersättigten Farben, keine Tonwertabrisse, nichts. HDR wurde genau dafür erfunden, damit man nicht etwa mehr „Dynamic Range“ in ein Foto packen kann, sondern dass man aus einer Szene beliebige, völlig normale Beleuchtungen produzieren kann.
      Das, was die Olys als HDR1 und HDR2 bezeichnen, hat mit HDR nichts zu tun.
      Und – ganz nebenbei – Thomas Eisls so total toll produziertes getonemapptes Bildchen seines LED-Lämpchens überstrahlt an den Rändern der LED. Deshalb sollte man bei solchen Motiven nie 3EV Abstand wählen, sondern 1EV oder maximal 2 EV Abstand. Weil dann die Software mehr Bilder hat um diese Überstrahlungen rauszurechnen. Das ist nämlich vor allem bei Innenraumaufnahmen ein Problem, wenn die Sonne ins Fenster scheint. (Ach ja, wenn man „professionell“ mit HDR rummachen will, dann sollte man sich HDR Projects von Franzis besorgen.)

  2. Normalerweise gebe ich keine Kommentare unter Blog ab aber hier muss ich mal eine Ausnahme machen.
    „Dann behauptet er, Kamerasensoren können nur 14 bis 15EV erfassen. Schon eine simple Hasselblad kann über 16EV. “ Wie soll denn eine Hasselblad 16 Blenden / EV Werte abdecken können? Selbst wenn sie in 16 Bit speichert, sind schon theoretisch nur 16 Blenden / EV Werte möglich. Allerdings werden in der 16 Bit Datei ja auch das Rauschen mit abgespeichert. Das heist es gehen in den dunklen Bereichen 2-3 Bit verloren. Gehen wir mal davon aus eine Hasselblad hat nur 2 Bit Rauschen, dann wären das „nur“ 14 EV Werte. Eine Canon EOS R3 hat nach DXO einen Signal- / Rauschabstand von ca 41db das entspricht in etwa einen Belichtungsumfang von 13.6 Blendenstufen. Da liegt er Wegener schon gar nicht so schlecht.

    1. Du verwechselst hier halt ein bisschen was. Wegener spricht hier von „Erfassen“. Das ist das, was die Dioden der Sensoren tun. Das hat mit dem, was beim RAW raus kommt, gar nichts zu tun. Schon der Sensor der E-M5 konnte über 14EV. Ich hatte heute die Datenblätter von zwei Kamerasensoren da, die haben Dynamiken von 95dB und 100dB. Ich mache für nächste Woche mal nen Artikel zu Dynamic Range. Scheint fällig zu sein.

      1. Ne ich verwechsle hier nichts. Ich bezweifle doch sehr, dass der E-M5 Sensor 14 Blendenstufen erfassen konnte. Selbst der IMX472 (https://www.sony-semicon.com/files/62/pdf/p-13_IMX366AJK_Flyer.pdf) der wahrscheinlich in der OM-1 verbaut ist besitzt einen 12 Bit A/D Wandler, die analogen Daten vom Sensor werden also in 12 Blendenstufen übersetzt. Die E-M5 wurde 2012 vorgestellt da war die Sensortechnologie weit aus schlechter als heutzutage. Wie kommst du zu dieser Aussage? Klar gibt es Sensoren mit höherer SNR wie du beschrieben hast. Wird aber nicht besser wenn ich diese mit einem 16 bit A/D Wandler ausstatte, bekomme ich eben nicht mehr als max. 16 Bit Dynamikumfang. Kann der Sensor noch so viel einfangen können wir er will. Lass ich aber gerne eines Besseren belehren, aber dann gerne mit Messdaten und Fakten hinterlegt. Freu mich schon auf den Artikel.

    1. Jo, sag ich doch. Da kommt irgendeine Pfeife daher und definiert Begriffe um, um die Leute für dumm zu verkaufen. „TrueHDR“ – das Gegenteil ist der Fall. Pavel Kaplun hat letzthin eine Mittelformatkamera mit „Vollformat“ verglichen und da ist ihm dann, während er es ausgesprochen hat, sichtbar aufgegangen, wie bescheuert das ist. Der Golf von Mexiko heißt jetzt Golf von Amerika. „Hoher Kontrastumfang“ wird ersetzt durch „voll echt hohen Kontrastumfang“, der leider nur grob 6% eines *.HDR darstellen kann. (Tatsächlich kann *.HDR noch ganz andere Werte annehmen, nämlich 2 hoch 128 verschiedene PRO FARBKANAL. Aber das kann kein Medium der Welt anzeigen. )

      1. Das neue HDR-Format wird soeben standardisiert, auch so, dass es auf SDR Monitoren gut dargestellt werden kann.
        Es geht darum, den Dynamikumfang, der in jeder raw Datei besteht, besser darzustellen. HDR Dateien auf HDR Displays, zeigen viel mehr Details in den hellsten Teilen des Bildes. Natürlich kann man es auch übertreiben und manches „TrueHDR“ Bild braucht Sonnenbrillen um angeschaut zu werden :).

  3. Vielleicht kann man das Thema auch entspannt angehen:
    Die Duden-Redaktion schreibt regelmäßig, dass einem auf die Dauer nichts anderes übrig bleibt, als dem allgemeinen Sprachgebrauch zu folgen.
    Alle Welt redet heute von E-Bikes, obwohl nach ursprünglich gesetzter Definition in Deutschland damit fast immer Pedelecs gemeint sind.
    Auch in der Kurzbeschreibung von Deinem unter den 30 obligatorischen Büchern gelisteten HDR-Profi-Buch ist mehrfach von HDR-Bildern die Rede, obwohl es die im strengen Sinne nicht gibt, weil es bislang keine bildgebenden Techniken gibt, die den HDR-Umfang wiedergeben können. Bis dahin ist „HDR-Bild“ einfach eine verkürzte Bezeichnung für ein Bild, das aus einer HDR-Aufzeichnung abgeleitet wurde und ein HDR-Monitor ist ein Monitor, der gegenüber herkömmlichen Monitoren einen erweiterten Kontrastumfang darstellen kann, sodass für ihn der ursprüngliche HDR-Umfang weniger gestaucht werden muss.
    Das eingangs erwähnte YT-Video habe ich mir angesehen. Für mich ist die Hauptaussage, dass es inzwischen „HDR-Monitore“ gibt und dass man dafür seine HDR-Aufzeichnung aber auch so entwickeln muss, dass der Kontrastumfang weniger gestaucht wird. Letzteres zeigt der Autor am Beispiel von Lightroom.
    Bevor der Autor diese Hauptaussage tätigt, gibt er eine sehr verständliche Einführung in das zugrundeliegende Problem. Dass darin Unschärfen oder Unvollständigkeiten enthalten sein mögen, mag dem Wissenden aufstoßen, aber aus meiner Sicht beeinträchtigt es nicht die Hauptaussage.
    Was mir an dem Video am ehesten fehlt, ist ein Hinweis, dass alles Dargestellte sich eben auf Monitore bezieht und für den Ausdruck auf Fotopapier nur wenig helfen kann. – Aber vielleicht leben wir ja bald in einer Welt, in der es keine Bilderrahmen mehr an den Wänden gibt, sondern nur noch HDR-Monitore…
    Insgesamt hat mir das Video gut gefallen und ich bewundere regelmäßig die YouTuber, die sich soviel Mühe machen, derartige Sachverhalte einem breiten Publikum zu erklären.

    1. Jo. Pippi Langstrumpf. „Ich mache mir die Welt, wie sie mir gefällt.“ Ich behaupte, mein Schnitzel ist ein Salat und schon bin ich Veganer.
      Wegen des HDR-„Bildes“. Natürlich gibt es HDR „Bilder“. Nur weil Du sie nicht sehen kannst, meinst Du, sie wären nicht existent? Dann gibt es auch keine „TrueHDR“-Bilder. Du kannst keine 12bit-Bilder sehen. Dann gibt es ziemlich viel nicht. RAW-Bilder gibt’s dann auch nicht.
      Und man kann Sachverhalte einem breiten Publikum erklären, aber bitte korrekt. Denn wenn alle ununterbrochen Mist erzählen – ist ja nur ein bisschen unscharf – dann setzt sich der Mist als Allgemeinwissen fest. Und siehe da, schon behaupten die Leute, die Erde sei flach, erst 5000 Jahre alt und die Mondlandung ein Fake. Wo wäre das Problem, den historischen Rückblick korrekt zu machen und drei Sätze über echtes HDR fallen zu lassen? Dann kann man ja sagen, dass das Marketing von Adobe der Meinung war, dass ihr alle zu doof seid um das zu kapieren. Und dann kann man sich immer noch über HDR-Monitore auslassen, wobei er halt auch da mehr so auf der Oberfläche bleibt, weil es eben „HDR-Monitore“ und „HDR-TVs“ mit 8-Bit-Panels gibt, die nur einfach ne HDR-Eingangselektronik haben. Aber da in die Tiefe zu gehen und einen echten Mehrwert zu liefern, dazu muss man tagelang recherchieren und setzt sich unter Umständen Abmahnungen durch Hersteller aus, die das nicht lustig finden, dass ihnen jemand sagt, dass sie die Kunden mit falschen Labels bescheissen.

  4. Wie du sagst, die ursprüngliche Bezeichnung HDR bezieht sich auf Bilddateien, deren Farbwerte nicht mit Ganzzahlen sonderm mit Fleißkommazahlen dargestellt werden und somit einen Dynamikbereich codieren konnte, der mit Monitoren und erst recht nicht auf dem Papier dargestellt werden kann und ein Tone-Mapping erforderlich macht. Neuerdings werden Bildschirme mit erweitertem Dynamikumfang beworben, die über 1000 Nits darstellen können und den HDR10 Standard erfüllen. Apple und Adobe unterstützen die dafür erforderlichen neuen Dateiformate wie AVIF. Um diese Bilder auch an herkömmlichen Bildschirmen darzustellen und auch auszudrucken, wird zusätzliche Information mitgegeben. Der zusätzliche Aufwand für die doppelte Bildentwicklung wird sich meistens nicht lohnen, zumal wenn eine Druckausgabe angestrebt wird. JPG ist auf 8 Bit beschränkt. Insofern sind die obigen Bilder zwar aus HDR-Entwicklungen entstanden (, besonders beim ersten kann man das nachvollziehen,) aber keine HDR- sondern LDR-Bilder.

    1. Exakt. Allerdings kann man aus einem HDR auch eine Art „Scheibe“ rausschneiden, die dann kein Tonemapping braucht. Wer das jemals gemacht hat, das ist spannend. Man hat eine HDR-Szene und kann jede beliebige Belichtung simulieren. Und jedes dieser Bilder ist kein „tonegemapptes“, bonbonbuntes Bild, sondern als wäre man vor Ort und habe einfach nur mit einer anderen Belichtung fotografiert. So ähnlich, als würde man ein RAW über den Konverter aufreißen, nur eben ohne dass es irgendwo zu Tonwertabrissen kommt. (Klar, irgendwann saufen die Schatten ab oder die Lichter reißen aus, wie bei einer realen Belichtung auch, aber wo Zeichnung ist, ist Zeichnung.)

        1. Das ist simpel: Du hast zum Beispiel ein 32-bit-Bild eines Abendhimmels und einer Landstraße. Nun platzierst Du auf der Landstraße das CGI-Bild eines neuen Autos. Nun kannst Du die Beleuchtung der gesamten Szene exakt auf die Farbe des Fahrzeugs abstimmen. Und der Renderer baut dann die Spiegelungen des Abendhimmels auf die Karosserie. Und wenn Du feststellst, das kommt mit dem Lack nicht so gut, dann machst Du halt den Abendhimmel ein bisschen heller oder dunkler oder die Landstraße ein bisschen heller oder dunkler. Der Vorteil von 32bit ist eben, wenn Du beschließt, Abendlicht ist blöd, dann machst Du halt Mittagslicht. Oder Nacht.

    2. Diese HDR10 (oder vergleichbare Lösungen) sind jetzt aber weder HDR noch LDR, sondern dazwischen. Es gibt wesentlich mehr Information als in einem JPG oder Druckbild, aber wesentlich weniger als in einem echtem HDR. Dafür ist es aber auch fertig „entwickelt“, ein HDR hat keine vorgegebene Ansicht…

      Ich habe seit Weihnachten ein neues MacBook, dass bis zu 1600Nits darstellen kann und habe jetzt aufgrund des Beitrags mal etwas mit ACR gespielt…
      Als Ausgangsbild habe ich ein Oly HighRes Raw verwendet, die anscheinend durch das interne Stacking der Bilder auch schon einen erweiterten Dynamikumfang besitzen, die Lichter und Schatten können bei solchen Datein viel besser und extremer korrigiert werden!
      Im RawKonverter mit HDR Schalter entwickelt liefert der Bildschirm wirklich eine wesentlich bessere Darstellung der Lichter (Nachtaufnahme bei blauer Stunde). Und wie im zitierten Artikel angesprochen konnte ich eine erneute Wiedergabe außerhalb von ACR nur über Chrome und das AVIF Format hinbekommen. Alle anderen Programme kennen das Format noch nicht…
      Somit hat der Beitrag im Kern schon gute Infos geliefert, das übermittelte Basiswissen war wie Reinhard es beschrieben hat aber eher mangelhaft erklärt…

  5. Das Auge ist ein faszinierendes Instrument. Ein Sommertag mittags hat eine Beleuchtungsstärke von 100 000 lux. Ein fensterloser Kohlenkeller, in den durch eine kleinen Türspalt minimal Licht einfällt, hat eine Beleuchtungsstärke von ca. 1/1000 lx. Trotzdem kann man nach etlichen Minuten Adaptation schemenhaft Möbel und andere Gegenstände erkennen. Das macht einen Unterschied von 1:100Mio. Wenn man 1000 näherungsweise mit 2^10 und 100 mit 2^7 ansetzt, kommt man auf 2^27, also 27 LW. So schlecht ist die obige Näherung nicht.
    https://de.wikipedia.org/wiki/Adaptation_(Auge)

  6. Bzgl. der vergriffenen erwähnten Bücher …
    Reinhard, Dein Profibuch HDR gibt (ok, gab …) es gerade gebraucht von ******** für €6,55 …
    Etwas teurere Exemplare findet man auch noch.
    Also es lohnt durchaus, nach solchen Büchern zu suchen.

    1. Wer gebrauchte Bücher sucht, sollte sich über eurobuch.com informieren. Leider landet man da auch wieder teilweise bei Bezos Klitsche, aber man kann auch bei anderen kaufen. Bitte!

      1. Danke für den Tip, eurobuch kannte ich noch nicht.
        Ja, Amazon … für Bücher und CDs aber leider manchmal unvermeidlich.
        Immerhin, im konkreten Fall war es aber ein anderer Anbieter, der _via_ Amazon verkaufte.
        Also nicht alle $$$ an Bezos… 🙂

        1. Alles was in Deutschland verkauft wird (Bücher, CDs), bekommt man über alle größeren Buchhandlungen. Mein Anlaufpunkt ist da rupprecht.de. Die liefern über libri aus.
          Vielleicht sollte man mal nen Artikel zu alternativen Bezugsquellen machen.

Schreibe einen Kommentar zu Hexanon85 Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert