Hauke hat es angesprochen und Daniel auch . Und immer wieder lese ich es auf „Fotoseiten“: Das Auge wäre Sensoren sooo toll überlegen, weil man ja extrem helle Szenen sehen könne und auch selbst bei Sternenlicht….
Nein.
Unser Sensor ist lausig. Die im verlinkten Artikel verblubberten 20EV HDRs sind völliger Unsinn. Von den 22 Megapixeln ganz zu schweigen.
Unsere Zapfen (also die Farbpixel) haben einen Dynamikumfang von 7 EV.
Im Zentrum unseres schärfsten Sehens haben wir 40.000 Pixel. Vor allem Farbpixel. Wenn es dunkel wird, verlieren diese Farbpixel die Funktion (daher „Zapfenstreich“) und wir haben nur noch Stäbchen. Schwarz/weiß. Aber blöderweise nicht im Zentrum des schärfsten Sehens. Deshalb haben wir ein Problem, einen bestimmten Stern mit dem Auge zu fixieren – damit wir ihn sehen, müssen wir knapp daneben kucken.
Die restlichen Pixel sind auf einem gewölbten Sensor angebracht und zeigen deshalb ziemlich viel unscharf. Vor allem bei schlechtem Licht, wenn wir die Blende (Pupille) aufmachen müssen.
Die Brennweite des Linsensystems, das wir im Auge haben, ist so grob 20mm. (es gibt eine innere Brennweite von 23mm und eine äußere Brennweite von 17mm) Die Pupille macht zwischen 1,5 und 8mm auf, bei älteren Personen um die 6mm. (Deshalb haben ältere Personen mehr „Lichtbedarf“ beim abendlichen Lesen.) Grob ist das Blende 2,8 bis Blende 13. Also grob noch mal 4,5 EV
Gesamt 11,5EV Dynamikumfang, den wir sehen können. Ältere Menschen können nur noch bis Blende 3,2 oder 3,5 aufblenden und liegen deshalb bei knapp unter 11 EV Gesamtdynamikumfang. Das ist ziemlich genau das, was in ein RAW reinpasst.
Unser Hirn verarbeitet die Informationen aus dem scharfen Zentrum als Information zum Aufbau eines dreidimensionalen Modells unserer Umgebung. Unser C-AF ist sehr schnell, so dass wir eigentlich – so wir nicht fehlsichtig sind – laufend ein scharfes Bild unserer Umgebung im Kopf haben. In unserem Kopf gibt es kein Bokeh, keine unscharfen Bildteile, keine „Freistellung“: Unser Auge scannt dauernd die Umgebung und fährt bei diesem 3D-Modell „Updates“. Das macht das Auge natürlich nur dort, wo was Interessantes passiert. Wo der Säbelzahntiger im Gebüsch raschelt, zum Beispiel. „Zauberkünstler“ machen sich genau das zunutze, indem sie unser Gehirn im entscheidenden Moment ablenken und das „Update“ an der „falschen Stelle“ gemacht wird und das 3D-Modell an anderen Stellen, die wir eigentlich durchaus sehen könnten, mit „veralteten Daten“ arbeitet.
Das 3D-Modell in unserem Hirn hat eine Auflösung von etwa 5MP. Mehr können wir nicht im Kopf zusammenbauen. Wir haben zwar mehr Sehzellen, die werden aber nur dafür benötigt, Bewegung aus den Augenwinkeln wahrzunehmen. (Mammut von rechts….) Scharf sehen geht damit nicht. Wir erhalten auch nicht tatsächlich die Info „Mammut von rechts“ – sondern „großes, graues Ding bewegt sich rechts“. Erst wenn wir hinkucken, sehen wir, ob das ein LKW, ein einstürzender Neubau oder ein Mammut ist.
Wie kommen die dann aber auf 20EV Dynamikumfang? Tscho. In unserem Auge gibt es noch einen Regler: Die Produktion des Sehpurpur. Wir haben ja keine Photodioden im Kopf, sondern Zellen, die eben Sehpurpur produzieren. Der zerfällt bei Lichteinfall und löst einen chemischen Reiz aus. Wenn dieser Farbstoff in großen Mengen produziert wird, braucht es weniger Licht, um den gleichen Reiz auszulösen als bei geringer Produktion. Das Ankurbeln der Produktion von Sehpurpur – aka „Anpassung des Auges an die Dunkelheit“ – dauert bis zu 40 Minuten, umgekehrt kann die Produktion innerhalb von Sekunden gestoppt werden. (Zum Beispiel bei einer Blendung.)
Selbst das reicht nicht. Es gibt noch einen weiteren Regler, der die Geschichte mit dem Mond und dem Wald von Daniel erklärt:
Das Auge hat eine Art einstellbaren Signalwiderstand. Wenn die Reizstärke der Sehzelle kurzfristig sehr stark ansteigt, kann innerhalb von 1/20s der Pegel am Ausgang der Nervenzelle begrenzt werden. Mit dieser elektrischen Lösung können innerhalb von 0,2 Sekunden weitere 5EV Dynamikumfang abgebildet werden.
In Summe haben wir also:
- Pupille: 4,5EV,
- Zapfen: 7EV,
- Signalbegrenzung: 5EV
- Sehpurpur (High ISO) (dafür habe ich keine genaue EV-Angabe)
Wichtig: Das ist der gesamte Dynamikbereich, der mit der Kombination Auge, Reizleitung abbildbar ist. Ähnlich eines Kamerasystems inklusive Objektiv, Multishot und anschließender HDR-Nachbearbeitung am Computer.
Jedes einzelne „Bild“, das das Auge macht (etwa 70 Stück davon in der Sekunde) hat eine vergleichsweise geringe Auflösung und eine Dynamik von lediglich 7EV. Durch die Veränderung der Blende, der Signalbegrenzung und des Sehpurpur kann das nächste Bild im Endeffekt ein Art „Bracketing“ sein. und einen anderen Bereich des Kontrastumfanges des Bildes abbilden. Aber wieder nur 7EV.
Das was wir „sehen“ ist also eigentlich komplett GBV (Gehirn-Bild-Verarbeitung) um mit den Beschränkungen von Linse, Pupille und Sensor klarzukommen.
Bilder: HDRs aus Norwegen, oben ein Gästehaus aus dem Mittelalter, unten die Nordkaphalle, als da noch ne Kneipe drin war. (Vielleicht ist sie das jetzt auch wieder….) Unten: Links Toshiyuki Terada, damals Leiter Kameraentwicklung bei Olympus. Foto: Nils Häußler
Danke für diese gute Darstellung!!
️
Lieber Reinhard,
sehr schöne Erklärung, aber Zapfenstreich kommt meines Wissens nach aus der Zeit des preußischen Militärs und bedeutet das Einleuten der Nachtruhe. Mit dem Streichen des Zapfens bzw. dem Geräusch wurden die Soldaten aus den Wirtshäusern „eingesammelt“. Vielleicht irre ich mich aber auch.
Gruß aus dem Ruhrgebiet
Ralle
So ähnlich. Das Streichen des Zapfens bedeutete, dass der Alkoholausschank eingestellt wurde.
Der „Zapfenstreich“ in Bezug zum Auge war eine geniale Eselsbrücke, mit der uns unser Biologielehrer für immer und ewig den Unterschied zwischen Stäbchen und Zapfen ins Gehirn gebrannt hat….
Toller Beitrag, sehr intetessant. Daher müsste der MFT Sensor dem sehr nahe liegen. Oder?
LG
Klaus-Peter
Herzlichen Dank auch von mir! Vom „Sehpurpur“ hatte ich gehört, der Rest war mir neu. Spannend!
Viele Grüße,
Daniel
Genau das habe ich mich vor Kurzem auch gefragt.
Was für eine Blende hat eigentlich unser Auge? ISO? Verschlusszeit? Ist ja eigentlich sowas wie ein elektro- chemischer Sensor mit direkt gekoppelter Bildverarbeitung.
Danke für die Antwort auf meine Fragen. Ich finde das sehr interessant.
„Jedes einzelne „Bild“, das das Auge macht (etwa 70 Stück davon in der Sekunde) …“
Dieser Wert kann sehr stark schwanken:
https://www.bfs.de/DE/themen/opt/sichtbares-licht/wirkung/lichtflimmern-tla/lichtflimmern-tla_node.html
P.S.:
Wer ist eigentlich der fröhliche Brillen-/Bartträger auf dem dritten/letzten Bild? 😉
Und was war der Anlass des Treffens?
Der Bart, die Brille und die Jacke gehören mir. Das Treffen war auf der Photokina 2012, auf der die E-PL5 vorgestellt wurde. Die erste Kamera mit der HDR-Funktion. (Als die Kameras dann einen eigenen Knopf dafür bekamen, wurde der intern in Tokio auch als „Wagner-Knopf“ bezeichnet, weil ich seinerzeit genervt habe, dass ich (und viele andere, wir hatten da eine Petition auf oly-e gestartet, die ich dann an Terada-San übergeben habe) eine HDR-Funktion haben will.) Ich hatte 2010 nicht nur die Petition sondern auch mein damaliges HDR-Buch übergeben – und später auch die zweite Auflage. Laut Aussage Terada-San standen die Bücher in der Entwicklungsabteilung als Inspiration.
Und: so ziemlich alle physiologischen Werte des Menschen können schwanken. Inklusive des ganzen Menschen….
Moin,
„Und: so ziemlich alle physiologischen Werte des Menschen können schwanken. Inklusive des ganzen Menschen….“
Ich befürchtete schon ich müsse in Zukunft die Welt unbedingt in ‚Wagnerschem 5mp-3D‘ erleben.
Davon ab: Sehr schöner Artikel. Danke dafür.
Es gibt Menschen, die sehr viel höher auflösende Bilder im Kopf behalten können. Die können zum Beispiel ganze Stadtpläne aus dem Gedächtnis nachzeichnen. Wenn Du zu diesen gehörst, Glückwunsch.
https://de.wikipedia.org/wiki/Inselbegabung
Der fröhliche Träger dieser diversen Utensilien wäre der ideale Firmen-Ambassador for Germany/Europe (Anglizismus for Radius), um die Vorzüge des Systems endlich kapillar zu kommunizieren.
Keine putzig-dümmlichen Videoclips über den Sturzflug eines Steppenadlers auf eine hinkende Wühlmaus (den niemand von uns je zu Gesicht bekommen wird), sondern die Transmission kryptischer Beipackzettel der Produkte in umsetzbaren Benefit.
Mag sein, dass kulturelle Eigenarten eine Firmenstrategie beeinflussen ( Lokomotiveerkennung versus Bierfassanstich), aber entscheidend ist ein vernünftiger Transport der eigenen Stärken zum Endkunden.
Dazu braucht es halt jemand, der die Geräte nicht nur hypt, sondern auch kennt.
Super Erklärung. Vielen Dank dafür.
Was vielleicht noch fehlt sind die Artfilter auf den Menschen reduziert.
Wer von den „Wiesen“ kommt und etwas zuviel Bier intus hat besitzt einen „Rauschfilter“. Dieser bewirkt schwankende und etwas trübere Bilder…
Wirklich sehr interessant, vielen Dank!
PS: Und jetzt noch auf dpreview verbreiten, damit die Diskussion um die Dynamik und Schärfe des menschlichen Auges ein für allemal aufhört 😉
Wissen, anschaulich präsentiert, besten Dank dafür!