
Als Hauke in Rocksdorf saß, haben wir natürlich lange über Fotografie und Fotoforen gesprochen. Ich kriege da ja kaum noch was von mit, weil oly-e ein Kuschelforum ist, in dem es um Fotografie geht und nicht um Körperteilverlängerungen. Und alle anderen Foren kucke ich zwecks Digital Detox nicht an. Hauke hat auf jeden Fall drüber gelästert, dass alle wie blöd derzeit dem „Dynamic Range“ hinterherhetzen. Ich hatte das nicht mitgekriegt, weil siehe oben, aber durch diese HDR-Diskussion bin ich jetzt mit Anlauf draufgestoßen worden.
Es fängt damit an, dass der Dynamik-Umfang von Sensoren – aus dem RAW „gemessen“ wird. Das zeigt schon mal, dass diese Fachleute ein paar fundamentale Dinge nicht verstanden haben. Der Sensor liefert einen analogen Pegel. Der geht erst in einen Verstärker (dessen Verstärkung wird mit der ISO geregelt) und dann geht das immer noch analoge Signal in einen AD-Wandler, der dann einen 12bit, 14bit, oder 16bit-Wert draus macht. Und dann wird da noch allerhand Rechnerei draufgepackt – Randschattenkompensation, Chromamaske, eventuell sogar noch eine Doppelbelichtung – und dann hat man ein RAW.
Was hat das RAW also mit dem Sensor zu tun? In etwa so viel, wie Pellkartoffeln mit dem Acker, von dem die Kartoffeln kommen. (Nichts gegen die Kartoffeln meines Nachbarn, die sind klasse!)
Was bestimmt den Dynamic-Umfang eines Sensors? Die „Full-Well-Capacity“ der einzelnen Fotodiode. Und nichts anderes. Je mehr Photonen die Diode aufnehmen kann, bevor sie gesättigt ist, desto höher ist der Dynamikbereich des Sensors. Man kann sich also die ganze „Messerei“ am RAW sparen und das durch einen kurzen Blick ins Datenblatt des Sensors ersetzen. Wie kann ich die „Full-Well-Capacity“ steigern? Die Diode größer machen. Gibt’s einen anderen Weg? Nein. Steht die Full-Well-Capacity in den normalen Datenblättern, die der Endkunde sieht? Nö. Warum nicht? Ratet mal.

Mehr Pixel mit höherem Dynamikumfang auf gleicher Fläche? Jein. Man kann die Dioden nicht nur in der Fläche größer machen, man kann sie auch tiefer bauen. Und in der Fläche kann man sie größer machen, wenn man es schafft, den ganzen Elektronikkram, der da auch noch auf dem Chip ist, die ganzen Leitungen und Transistoren aus dem Weg zu schaffen. (Panasonic hat seinerzeit bei den ersten LiveMos-Sensoren die Anzahl der Transistoren reduziert und konnte deshalb die Pixel größer machen, so dass die Sensoren weit weniger gerauscht haben, als die alten Kodak-Sensoren und gegenüber den APS-C-Sensoren mit mehr Transistoren gleichwertig waren.) Wenn man das alles schon gemacht hat, kann man den Sensor größer machen. Wenn man den Sensor viermal so groß macht, kann man die fetten Dioden verbauen und hat eine enorme Full-Well-Capacity und krasse Dynamik. Go Mittelformat.
Im Mittelformat können wir richtig dicke Pixel verbauen. Auch weil wir uns nichts drum kümmern müssen, schnelle Bildwiederholraten zu erzielen. Dynaaaaamik.
„Kleines Problem“: wir können mit den Augen ohne dass die Pupillen tätig werden, nur 7 EV gleichzeitig wahrnehmen. Mit viel Mühe kann man 8EV drucken und Monitore können 10EV darstellen. Aber schon der 16MP-Sensor der E-M5 hatte 14EV Dynamik. (Kann man, wenn man lustig ist, sogar selbst „messen“ Einfach eine Belichtungsreihe bis ISO 6400 machen. Und bei jedem Bild im RAW die Dynamik messen. Je nachdem, wo man die subjektive Rauschgrenze setzt, erreicht man bis zu 14,5 EV Dynamik. ) Und die meisten Motive haben nicht mehr als 8 EV Dynamik. Das Ganze mal in einem anderen Maßstab: Wahrnehmbar sind 256 Graustufen, Tolle Monitore können 1000 Graustufen, die E-M5 könnte 16.000 Graustufen und eine Hasselblad irgendwas um die 100.000 Graustufen.
Und jetzt kommt der Punkt, an dem die meisten gedanklich aussteigen, weil das eben etwas ist, was jenseits der Wahrnehmung ist. Diese 100.000 Graustufen sind nicht etwa feinste Graustufen zwischen schwarz und weiß, also quasi der klassische Graukeil, nur feiner aufgelöst. Sondern es ist ein Graukeil, der in ganz andere Schwarzregionen hinabtaucht und ein viel, viel helleres weiß hat. Wenn also der normale 8EV-Graukeil 25cm breit ist, dann ist ein 17EV-Graukeil links und rechts 50 Meter länger und wird rechts immer weißer und links immer schwärzer. Kann man sich nicht vorstellen? Jepp, Kann man auch nicht sehen, darstellen, drucken.
Jetzt wieder ein bisschen Historie. Vor fünfzehn Jahren konnte man die vier verschiedenen Kamera-JPGs auf den ersten Blick auseinanderhalten: Canon war übersättigt und überschärft, Nikon war irgendwie flau, Fuji S3 war noch flauer und die einzigen JPGs, die man einfach verwenden konnte, lieferte Olympus. (Kleine Ehrenrettung: Die S3 konnte man umschalten, so dass sie „normale“ Bilder lieferte.)
Was war der Hintergrund: Die S3 hatten einen speziellen HighDynamic-Sensor, der bei Hochzeiten perfekte Bilder von Braut und Bräutigam lieferte. Durchgezeichnetes Brautkleid und Anzug ohne abgesoffene Stellen. Kleines Problem: durch die Dynamikkompression ins 8bit JPG wurden eben alle Bilder komprimiert und das produzierte bei Bildern ohne hohe Kontraste eben flaue Bilder. Nikon, die Fuji zwar die Gehäuse lieferten, aber den Sensor nicht hatten, wollten das nachmachen und packten alles, was der Sensor hergab in ein JPG. Die Folge: flaue Bilder und User, die nur RAW fotografierten, weil die JPGs für die Tonne waren.
Jetzt kommen wir zur ISO. Je größer die „Full-Well-Capacity“ der Diode ist, desto kleiner ist der Anteil des Rauschens. Wie kann ich den Rauschanteil noch senken? Indem ich den Rauschanteil schlicht abschneide und nur den oberen Bereich digitalisiere. Aber dann sinkt doch die Dynamik? Ja, aber die braucht niemand. Der User kann nur 7EV sehen, 8EV drucken und bestenfalls 10EV anzeigen. 12 EV, wie sie selbst die Oly-RAWs liefern, ist da immer noch vier mal größer als benötigt. Der Graukeil, den man aus dem RAW basteln könnte, wäre immer noch vier Meter lang. Die restlichen 12 Meter, die der Sensor hergeben würde, werden abgeschnitten und dazu verwendet, bei höheren ISO noch anständige Dynamik liefern zu können.
Dieses ganze „dieser Sensor hat 0,372EV mehr Dynamik als der andere Sensor“ ist kompletter Unfug. Was hier „gemessen“ wird, ist die Signalaufbereitung im A/D-Wandler und der RAW-Erstellung. Und da kommt das raus, was die Rechenvorschrift per Firmware vorgibt. OMDS hat es gerade vorgemacht: Neuen Sensor eingebaut und siehe da, angeblich 2 EV weniger Rauschen. Wie wir gesehen haben, hätten dazu die Pixel auf das Vierfache zulegen müssen. Haben sie natürlich nicht. Es geht also ausschließlich um die digitale Nachbearbeitung der Sensordaten. (Abgesehen davon sind schon die Dynamik-Nachkommastellen ein Hinweis darauf, dass da irgendwas faul ist – denn der Rauschpegel, der die Dynamik begrenzt, ist eine extrem subjektive Nummer – gerade seit es in der Kamera Entrauschungssoftware gibt. Canon hatte schon vor 15 Jahren „On-Chip-Entrauschung.“ )
Dieses „der Sensor ist total subbi, weil der hat 0,299 EV mehr Dynamic Range“ ist also mehr so Voodoo. Das hat damit zu tun, dass die Abstimmung des A/D-Wandlers anders ist. Das ist OK, wenn einem die andere Anmutung besser gefällt – kein Thema. Und es gibt Leute, die die Anmutung der Hasselblad einfach zum Niederknien finden. Aber das hat nichts mit dem Sensor zu tun, sondern mit der Abstimmung der RAW-Engine. Es gab mal bei den alten Olyfanten die berühmten „Olympus-Farben“, die man auf den legendären Kodak-Sensor zurückführte. Bis sich dann einer hinsetzte und nachwies, dass das einfach nur Software war und man im Endeffekt aus jedem RAW mit entsprechender Entwicklung solche Farben rausbekam.
Ich habe lange die verschiedenen Olympus-Kameras getestet und auch auf Farbunterschiede geprüft – und ich hatte immer wieder unterschiedliche Farben, unterschiedlich „knackige“ Bilder, trotz gleichem Sensor. Jede der Kameras ist unterschiedlich abgestimmt. Ist so – hat aber wieder nichts mit dem Sensor zu tun. Die Keyfeatures von Sensoren sind heutzutage Readout-Speed und Full-Well-Capacity. Der erste Parameter bestimmt den Rolling Shutter, der zweite den Rauschabstand.
Die Dynamik bestimmt die RAW-Engine.

Zu den Bildern: Ich habe kurzerhand Excire nach „Kartoffelsalat“ suchen lassen. Woher weiß Excire wie Kartoffelsalat aussieht? Keine Ahnung. Das unten ist natürlich kein Kartoffelsalat, sondern Bratkartoffeln. Aber auch sehr lecker. (Grüße von hier nach Rauderfehn.)
Danke für den Einblick, finde ich interessant 🙂
Bist du sicher, daß im Text mehrmals D/A Wandler stehen soll?
Grüße!
Peter
Wieder mal: Danke für’s Aufmerksam machen. Habe ich korrigiert.
Sehr interessant!
In der Astrofotografie ist Full-Well-Capacity eine der wichtigsten Daten bei der Wahl einer Kamera.
Besten Gruß!
Vielen dank für diesen Artikel und die wirklich guten Erklärungen.
Ich hoffe, dass es hilft das allgemeine Verständnis der Materie zu fördern.
Wer braucht die ganzen Influencer und Forenten, die alles Halbwissen nur halb gekonnt nachplappern?
Die gute Info ist hier zu finden.
Und lecker bebildert ist die Info auch noch, macht Hunger.
Danke für diesen Artikel
Georg
Fantastisch, all die Hintergrundinformationen und interessanten historischen Referenzen!
Meines Wissens sind die neueren Olympus-Sensoren (von Sony) mehr oder weniger ISO invariant (der 16 MP Sensor z.B. der E-M5 II etwas weniger als der 20 MP Sensor z.B. in der E-M1 III). Soll man bei einer Nachtaufnahme also tatsächlich ISO 200 einstellen, wenn der Kontrast gross ist, und bewusst unterbelichten, so dass die Lichter nicht ausbrennen? Die Schatten hellt man danach in der Bildbearbeitung auf. Oder ist die ISO-Invarianz bei Olympus zu wenig ausgeprägt?
Besten Dank, Gregor
Heiland. Das nächste Schlagwort. Also gut, mache ich den nächsten GfO zu ISO-losen Sensoren.
Vielen Dank! Ich freue mich sehr darauf. Ich traue sonst bald keinem mehr.. Ausser natürlich den anderen hilfreichen Kommentaren hier auf PAT wie z.B. jenem von Siegfried unten (danke!)
Photons to Photos kenne ich, aber ob die Daten sich direkt in die Praxis übersetzen lassen, ist halt noch eine andere Frage…
Leider habe ich im digitalen Zeitalter keine ernsthaften Astrofotos mit Nachführung und Teleskop mehr gemacht. Die Zeit reicht nicht für alles… Aber der Himmel ist in den letzten Jahrzehnten viel heller geworden, und dauernd fliegen Satelliten und Flugzeuge durchs Bild. Dafür braucht man sich keine Sorgen mehr über die Planlage des Films zu machen und ob dessen Hypersensibilisierung noch gut ist. 😉
Zumindest wenn Sterne im Spiel sind und möglichst auch etwas der vielen tollen Objekte die sich im dunkeln zwischen den Sternen befindet, zeigen möchte, weiß ich aus der Praxis, dass das nicht ansatzweise zielführend ist.
Es gibt da eine Webseite, der vermisst so ziemlich jede Kamera: PhotonstoPhotos, da kann man sich die ganzen Kameras vergleichen.
Da verwendet man an sich so ab ISO 800 pro Belichtung. Letztlich so viel und so lange bis der Peak des Histogramm so um die 30% von links weg steht in der Vorschau.
Höhere ISO bringt hier ein besseres Signal / Rauschen. Bei den bei uns verbauten Sony CMOS Sensoren gibt es da eine Sprung bei um die ISO 1250. Geht natürlich auf Kosten der Dynamik, aber die ist das geringste Problem 😉
An dunklerem Himmel (Bortle 4,5 herum hab ich im Garten ab und an) bedeutet das bei F/2 Belichtungszeiten von 1 Minute. Alle Sterne, die man hier jetzt mit freiem Auge sehen kann sind da in schon deutlich unter 1 Sekunde ausgebrannt.
Die Dynamik, die der Sternenhimmel so bietet ist einfach zu groß von mag -4 (Venus) bis mag +15 geht recht leicht. Der Helligkeitsunterschied von 1 Magnitude sind 2,5x mehr / oder weniger Licht.
Mit größerem Gerät ( bei mir 800mm Brennweite bei 200mm Öffnung geht es bis mag +21). Mond / Sonne lass ich gleich mal außen vor 😉
Wenn man mit unseren Kameras den Orion Nebel abbilden will, braucht es so ca. 3 Belichtungsregime um dem Helligkeitsunterschied gerecht zu werden. So z.b. 6/20/60-120 Sekunden bei F/2 herum, Bei der Andromeda Galaxie 2. Weshalb die ob der Helligkeit zwar leicht erscheinen und jeder Anfänger kennt, aber wohl zu schwierigsten Objekten zählen….
Aber bei DeepSky hat man sowieso keine Freiheiten mehr, will man praktischer Weise innerhalb von 1-4 Minuten Belichtungszeit pro Bild bleiben….
Siegfried
Waaahnsinn was für ein technischen Background du hast. Ich hoffe, du bleibst der Gemeinde noch lange erhalten 🙂
Unseren Reinhard müssen wir „hegen und pflegen“. Einen besseren finden wir nie wieder…
LG Panomatic
Dem schließe ich mich uneingeschränkt an, Andreas.
LG Thomas
Etwas verstehe ich noch nicht.
Ich lese: Mehr Dynamik nur mit grösserer Diode, im Mittelformat richtig dicke Pixel.
Die Pixel sind bei der Hasselblad aber kaum grösser als bei der Oly, nur im Nachkommabereich. Der Sensor ist sechsmal grösser wie bei der Oly, hat aber fünfmal mehr Auflöung, was in etwa die selbe Grösse ergibt. Der grosse Sensor hat sicher auch mit mehr Wärmeproblemen zu kämpfen als der kleine mft. Also eher Vorteil Oly.
Wieso kann man bei Mittelformatdateien die Tiefen aber viel stärker hochziehen? Hasselblad sieht mit 5 fast Stufen heller machen etwa gleich aus wie Oly mit 2. (Ich habe Fotos parallel immer stärker unterbelichtet und anschliessend auf die gleiche Helligkeit hochgezogen.) Die Dynamikreserven müssten sich doch im ähnlichen Bereich befinden. Wenn Oly so eine miese Konvertierung verwendet, würde es mich doch erstaunen. Eine Sony mit 61 MB bei KB hat Pixel im ähnlichen Grössenbereich wie genannte und liegt in der Mitte bezüglich der Reserven.
Bei Fuji war dieser Effekt der Fall, als die 40 MB Kameras schlechtere Rauschwerte wie die mit 26 MB hatten.
Es ist nicht die Oberfläche der Diode entscheidend, sondern die Fähigkeit zur Aufnahme von Ladung. Natürlich versucht man die Oberfläche größer zu machen, weil dann „Mehr Licht eingefangen werden kann“. Aber man kann – in Grenzen . die Diode auch dicker machen. Man macht also nicht den Durchmesser des Loches größer, sondern man macht das Loch tiefer.
Die Hasselblad hat eine Base-ISO von 64. Da sind ziemlich tiefe Löcher am Start…
Die Frage von Ruedi ist mir schon oft durch den Kopf gegangen. Endlich eine fundierte Antwort. Vielen Dank! Das heisst wohl auch, dass künftige MFT-Sensoren noch einiges leistungsfähiger z.B. für die Landschaftsfotografie sein könnten, falls denn jemand Geld in deren Entwicklung stecken würde… Dafür müsste man sich im Feld weniger mit Live GND oder echten Grauverlaufsfiltern herumplagen.
Das ist ein Problem, das ich nicht beantworten kann. Ich denke mir, die Leute in der Sensorentwicklung sind weit schlauer als wir. Die wären ja auch schon auf die Idee gekommen. Vielleicht liegt es daran, dass die Base-ISO sinkt, wenn man die Löcher tiefer macht. Und man lieber eine höhere Base-ISO hat, weil die User mit hohen ISO-Werten fotografieren wollen, anstatt dass man 16bit-Dateien liefert, mit denen die meisten eh nichts anfangen können. Das ist aber reine Spekulation ohne Hintergrund.
Ich mein, stell Dir mal eine Kamera mit mFT und 20MP vor mit den Werten der Hassi. 8 fps, kein VIdeo, maximale Iso 25600. Das kriegste doch nicht mehr verkauft, 16bit hin oder her.
Wieso braucht man eine hohe Basis-ISO, man hat doch den Antiwackler? Viele reden vom Superfreistellerding mit Offenblende, was auch nicht gross ISO braucht. Schon wieder stehe ich anscheinend auf dem Schlauch.
Verstehe ich richtig: die Basis-ISO und niedrige fps machen das Spiel? Pixelpitch ist raus ausser bei Fehlkonstruktionen mit 20 MB oder mehr bei Minisensoren.
Die Hassi ist noch krasser als die Beispiel-Oly. Nur max. 3.5 fps, die Sensorauslesezeit bei 16bit dauert 0.3 s (also Rolling shutter ohne Ende, bei 14bit immer noch die Hälfte). Besonders ist, dass die Fehlerkorrekturen für die Objektivfehler erst in der Phocus-Software gemacht werden. Vignette raus und Linien gerade ziehen passieren nicht in der Kamera und sind sichtbar im Sucher. Randunschärfe und CA brauchen aber kaum Korrekturen, da sie kaum bis nicht vorhanden sind.
Der Markt scheint vorhanden für teuren Kram. Fast nichts von Hassi ist direkt lieferbar und chronisch ausverkauft. Die hohen Preise sind nicht wirklich marktbestimmend, denn viele Hassi-Käufer haben daneben noch Leicaausrüstungen und für den rennenden Hund auch noch was Schnelles von Rot oder Gelb.
Wäre Oly richtig gut, könnten sie auch solche Preise erzielen, was sogar den Lichtsensor für 0.35 Eu in Griffweite rücken würde. Die Wow-Cam wurde mal bei 4000.- angedeutet und einige haben das kommentiert, dass sie sofort kaufen würden, wenn sie wirklich gut wäre. Auch hohe Objektivpreise wären kein Problem, wie man aus FT-Zeiten sehen kann. 3700.- für ein Top-Standardzoom waren damals ein ähnlichen Loch im Konto wie es Hassi heute verursacht. Die Qualität müsste allerdings wieder stimmen.