Weil es in einem Kommentar mal wieder Thema war und sich der Unsinn anscheinend hartnäckig hält, mal eine Klarstellung für alle, die immer noch Anhänger der Äquivalenzdiskussion sind.
Grundlagen:
Die Brennweite eines Objektivs ist bei seiner Konstruktion festgelegt. Sie ändert sich nicht dadurch, dass man es an eine Kamera mit beliebig großem Sensor schraubt. Auch ohne Kamera hintendran hat das Objektiv genau diese Brennweite.
Die Blendenzahl eines Objektivs berechnet sich durch das Verhältnis von Brennweite zu Öffnung. Die Öffnung des Objektivs ändert sich nicht, egal, ob man das Objektiv nicht anschließt, oder an einen großen Sensor oder an einen kleinen Sensor anschließt. Sie ist eine Konstante des Objektivs, genauso wie die Brennweite.
Die Lichtstärke eines Objektivs wird durch die Blendenzahl angegeben. Sie ändert sich nicht dadurch, dass man ein anderes Aufnahmemedium dahinter setzt.
Was ändert sich durch die Änderung der Größe eines Aufnahmemediums?
Am Objektiv: gar nichts.
Am Bild in der Bildebene: gar nichts.
Abhängigkeit des resultierenden digitalen Bildes von der Sensorgröße:
Der einzige Unterschied besteht darin, dass unterschiedlich große Sensoren unterschiedliche Ausschnitte des Bildes wiedergeben. Ein 50mm f/1,4 hat an allen Sensoren die identische Abbildung. Es liefert nicht auf einmal eine größere Freistellung, nur weil es an einen Kleinbildsensor angeschraubt wird.
Um nun zu betrachten, welche Auswirkungen die Sensorgröße auf das Bild hat, das auf der Speicherkarte landet, nehmen wir Sensoren mit gleicher Gesamtauflösung und gleicher Sensortechnologie an. (Diese Vorgabe ist rein theoretisch weil unterschiedliche Sensorgrößen unterschiedliche Technologien erfordern.)
Wir nehmen des weiteren an, dass es sich beim betrachteten Objektiv um ein Objektiv handelt, dessen Bildkreis groß genug ist, um alle in Frage kommenden Sensoren auszuleuchten.
Zur Berechnung der Schärfentiefen wurden für den FT-Sensor ein zulässiger Zerstreuungskreis von 0,0071mm und für den KB-Sensor von 0,014mm verwendet. Dies entspricht einer Pixelanzahl von 16MP.
Wir betrachten als erstes die jeweiligen Schärfentiefen bei 2m Motiventfernung und 50mm f/1,4
FT-Sensor: 0,031m
KB-Sensor: 0,062m
Der Kleinbildsensor liefert also eine doppelt so große (!) Schärfentiefe bei identischem Objektiv. Das hat den Grund darin, dass der zulässige Zerstreuungskreis bei einem deutlich größeren Sensor und identischer Pixelanzahl natürlich auch entsprechend größer ist.
Wir betrachten den Bildwinkel: da der FT-Sensor nur die Mitte des Bildkreises abbildet und der KB-Sensor die vierfache Fläche hat, ändert sich scheinbar (!) der Bildwinkel. In Wirklichkeit ist der Bildwinkel des Objektivs natürlich konstant. Diese scheinbare Änderung durch den Ausschnitt sieht wie folgt aus:
FT-Sensor: 24°
KB-Sensor: 48°
Damit nun eine Ähnlichkeit des Bildergebnisses gegeben ist, werden nun jeweils zwei unterschiedliche Objektive verwendet, die am jeweiligen Sensor den gleichen Bildwinkel produzieren.
FT-Sensor: 25mm
KB-Sensor: 50mm, jeweils f/1,4
Die Schärfentiefen sehen nun folgendermaßen aus:
FT-Sensor: 0,126m
KB-Sensor: 0,062m
Bei unterschiedlichen Brennweiten und gleichem Bildwinkel hat also der FT-Sensor eine größere Schärfentiefe.
Um mit dem KB-Sensor die Schärfentiefe von FT zu erreichen, muss man nun auf f/2,8 abblenden. Damit wird das Bild aber nicht nur schärfer, sondern auch dunkler – und zwar genau zwei Blendenstufen. Es erreicht nur noch ein Viertel des Lichtes die einzelne Photodiode. Um diesen Lichtverlust auszugleichen, muss die Kamera die „Signalverstärkung ISO“ am Sensor erhöhen – also von ISO 200 auf ISO 800. Das sorgt für mehr Rauschen.
Prinzipbedingt hat der Kleinbildsensor bei gleicher Pixelanzahl aber größere Photodioden, er kann also rauschärmer gebaut werden – und zwar theoretisch genau um zwei Blendenstufen. Durch das notwendige Abblenden zur Erlangung der gleichen Schärfentiefe ist aber dieser Rauschvorteil egalisiert. Ein Nullsummenspiel.
Fazit: Bei gleichem Bildwinkel und gleicher Blende ist die Schärfentiefe bei Kleinbild geringer. Bei gleicher Brennweite und gleicher Blende ist die Schärfentiefe bei FT geringer.
Ganz nebenbei:
Um eine identische Schärfentiefe bei gleichem Motiv und gleicher Blende wie bei einem Kleinbildsensor zu erreichen, benötigt man bei FT eine um den Faktor ca 1,4 kleinere Brennweite. Beispiel:
FT: 36mm, f/2, Schärfentiefe 0,086m
KB: 50mm, f/2, Schärfentiefe 0,088m
Dies ist zwar eine identische Schärfentiefe, nicht jedoch ein identisches Bild, weil der Bildwinkel unterschiedlich ist. Identische Bilder wurden aber bereits einen Absatz höher behandelt. Es wird jedoch deutlich, warum es mit FT durchaus problemlos möglich ist, freizustellen. Man erreicht mit einem 100mm f/2 FT-Objektiv die gleiche Schärfentiefe wie mit einem 140mm f/2 Kleinbildobjektiv. Und hier zeigt sich ein Vorteil von FT: ein 100mm f/2 ist deutlich kleiner und leichter als ein 140mm f/2 – selbst wenn man den größeren Bildkreis von Kleinbild nicht berücksichtigt.
Soweit zur Äquivalenzdiskussion was die Schärfentiefe betrifft.
Jetzt zur Lichtstärke.
Es wird behauptet, dass ja bei Kleinbild die vierfache Lichtmenge auf den Sensor falle, deshalb der Kleinbildsensor schon prinzipiell lichtstärker ist. Wir haben oben schon nachgewiesen, dass das Unsinn ist, weil sich der Lichteinfall durch das Objektiv durch den größeren Sensor dahinter exakt nicht ändert.
Unterschiedliche Sensorauflösungen.
Größere Sensoren haben oft auch mehr Pixel als kleinere Sensoren. Mit mehr Pixeln wird das Bild aber nicht schärfer, sondern unschärfer. Der zulässige Zerstreuungskreis wird durch den geringeren Pixelabstand kleiner und damit geht die Schärfentiefe zurück.
„Freistellung“
Als „Freistellung“ wird das Lösen des Motivs vom Hintergrund bezeichnet. Dafür gibt es verschiedene Möglichkeiten: Licht, Abstand, Farbe, Form und Schärfentiefe. Leider werden die ersten vier Möglichkeiten gerne vernachlässigt und man denkt, das „Problem“ mit geringer Schärfentiefe lösen zu können. Die Schärfentiefe wird durch folgende Parameter bestimmt: Zerstreuungskreisdurchmesser, Abbildungsmaßstab – den legt das Motiv und die Bildkomposition fest – und Blende. (Da der Abbildungsmaßstab nur selten direkt bestimmt werden kann, berechnet man die Schärfentiefe mit Brennweite und Motivabstand).
„Schärfentiefe“ ist aber lediglich der Bereich der bei vorgegebenem Zerstreuungskreisdurchmesser scharf ist. Die Schärfe des Hintergrundes und die Form des Schärfeüberganges hat damit aber nur mittelbar etwas zu tun. Um mit Unschärfe „freizustellen“ muss nicht die Schärfentiefe möglichst klein sein – das ist im Gegenteil meistens nicht gewünscht, weil Augen, die nur zur Hälfte scharf sind, nicht vorteilhaft aussehen – sondern der Hintergrund möglichst unscharf. Dies wird aber nicht durch Offenblende erreicht – denn dadurch sinkt vor allem die Schärfentiefe – sondern vor allem durch eine lange Brennweite. Durch die lange Brennweite sinkt der Abbildungsmaßstab des Hintergrundes und damit wird der Hintergrund unschärfer. Und je länger die Brennweite, desto sanfter ist auch der Übergang von Schärfe zu Unschärfe. Kurzbrennweitige Lichtriesen sind also zur „Freistellung“ unabhängig vom Sensorformat ungeeignet.
Vorteile/Nachteile.
In der täglichen Anwendung sind kleine Sensoren prinzipiell im Vorteile, weil der Schärfebereich größer ist. Bei gleicher Blende und Bildwinkel ist von einem Vogel beim kleinen Sensor wesentlich mehr scharf, als beim großen Sensor. Bei der Eventfotografie mit schlechtem Licht kann der FT-Fotograf bei f/2 bleiben, während der Kleinbildfotograf auf f/4 abblenden muss, um ähnliche Schärfentiefen zu erzielen, die nun mal bei Personenfotografie notwendig sind. Entsprechend ist der technologische Vorteil der größeren Photodioden Null, dafür sind Kleinbildsensoren aber aufgrund der längeren Leitungen prinzipiell langsamer.
Im Makrobereich hat FT den Vorteil der größeren Schärfentiefe, vor allem Produktfotografie ist mit FT deutlich weniger aufwendig.
Kleinbild hat dann Vorteile, wenn die Schärfentiefe bei Offenblende prinzipiell ausreichend ist – etwa bei Sportfotografie in der Halle – und man aufgrund der längeren verwendeten Brennweiten – 70-200 statt 35-100 – den Hintergrund unschärfer bekommt. Da man bei Sportfotografie keine Kontrolle über Motiv und Hintergrund hat, ist hier das Kleinbildformat prinzipiell überlegen.
Und noch zu ISO
Die Kleinbildsensoren haben – wenn man es mir der Pixelanzahl nicht übertreibt – prinzipiell größere Photodioden, die deutlich mehr Photonen aufnehmen können. Das bedeutet einen prinzipiell höheren Dynamikumfang und damit auch die Möglichkeit eines höheren Rauschabstandes – mehr ISO. Das kann theoretisch bis zu 2EV mehr Dynamik gehen – und damit 2EV mehr ISO. Praktisch sind es meistens etwa 1,5 ISO Unterschied (weil ja die Pixelanzahl gegenüber den FT-Sensoren höher ist.) Das bedeutet, tatsächlich entsprecht die Qualität eines FT-ISO 1600 einem Kleinbild-ISO von etwa 5000. Das ist schon flott. Größere Unterschiede sind einer verstärkten Nachbearbeitung durch entsprechende Mathematik zu verdanken, die man natürlich auch auf die FT-RAWs anwenden kann. Wenn die Kleinbildkamera mit der gleichen Blende wie die FT-Kamera verwendet werden kann, hat Kleinbild hier einen Vorteil. Bei einem 40-150 f/2,8 zu einem 70-200 f/2,8 beträgt der Unterschied dann tatsächlich 1,5EV – was deutlich ist. Im Vergleich zu einem 35-100 f/2 ist der Vorteil dagegen vernachlässigbar.
Und ganz zum Schluss noch zur Pixelanzahl.
Kleinbildsensoren können prinzipiell mehr Pixel auf dem Sensor unterbringen, weil eben die Fläche größer ist. Wird dieser „Vorteil“ aber tatsächlich ausgereizt, landet man in verschiedenen Problemen. Die Schärfentiefe haben wir schon angesprochen, Die Objektive müssen unverhältnismäßig größer, schwerer und teuerer werden, damit sie offenblendig auch scharf sind. Denn was hilft ein tolles 100mm f/1,4 wenn offenblendig nur Matsche rauskommt und man es auf 5,6 abblenden muss. Zudem landet man bei kleineren Pixelabständen in Beugungsproblematiken.
Fazit:
Ja, es gibt einen Unterschied. Im Fotoalltag ist aber die Schärfentiefe viel öfter zu knapp als zu groß. Im professionellen Bereich sowieso, weil Kunden ihr Produkt, ihr Porträt, ihr Haus gerne scharf abgebildet hätten. Weiteres dazu bei Hauke Fischer.
Beide Sensorgrößen haben Vor- und Nachteile. Beides sind Kompromisse. Wenn man mehr Schärfentiefe haben will, wäre ein kleinerer Sensor besser, will man weniger Schärfentiefe wäre eine Mittelformatkamera eine Überlegung wert.
Das ist aber eine persönliche Entscheidung, die vom Anwendungszweck abhängt. Für Hobbyisten ist kein Sensorformat „falsch“ wenn es zur beabsichtigten Anwendung passt. Bei Profis ist das sowieso nochmal anders. Da bestimmt der Kunde, was er geliefert bekommen will. Und wenn der Mittelformat haben will, dann wird Mittelformat fotografiert, piepegal, ob es nur um Passbilder für die Website geht.
Danke für die klaren Erläuterungen. Dafür brauchen andere ein ganzes Buch.
… eine systematische, klar strukturierte Darstellung der Sachverhalte!
Vielen Dank, Reinhard!
Na ob das reicht um die Äquivalenzdiskussionen zu beenden…..? Ich glaube nicht ;-/
Ich kann mich noch an lange Diskussionen im dslr-Forum erinnern – wann immer ich gesagt habe, das ich im Theater selbst mit (m)FT schon knapp dran bin mit der Schärfentiefe fand sich immer noch jemand, der das Mantra vom überlegenen KB-Sensor predigte ….. und nicht mal ansatzweise auf meine Argumente einging.
Solange es Leute gibt, die glauben „ihr“ System verteidigen zu müssen, wird es auch weiter diese unsägliche Diskussion geben, mit teilweise haarsträubenden Argumenten.
Ich habe es aufgegeben. Die Vorteile meines Systems kenne ich, die Grenzen auch (ein wenig) und ich brauche auch keine Äquivalenzrechnung …. ich habe für mich schon lange aufgehört „umzurechnen“ – ich weiß wie eine Brennweite von 25 mm oder 100 mm an meinem System wirkt – das reicht für mich.
Ganz einfach Andy, nicht aus Diskussionen einlassen zum Thema. Immer den Link hierher zur Hand haben, geht ja auch analog.
Nun, das DSLR-Forum ist voll von Menschen, die nichts anderes machen/können, als in Foren anderer Hersteller die Nutzer zu diskreditieren. Das ist bei mFT und bei Pentax und vielleicht auch anderen ähnlich, eigentlich kann man mit anderen Systemen als Canon, Nikon, Sony und dann mit Kleinbildsensor nicht fotografieren.
Die Wirklichkeit beweist das Gegenteil und praktische und theoretische Gegenargumente zählen einfach nicht bie diesen Menschen. Deshalb meide ich meistens das DSLR-Forum, weil es sowasvon nervt.
Wenn ich den Fourthird-Sensor hinter einer Linse durch einen KB-Sensor ersetzt, ändert sich die Lichtmenge, die durch das Objektiv tritt, offensichtlich nicht. Der KB-Sensor hat die vierfache Fläche – er kann also viermal soviel des Lichtes absorbieren, das durch die Linse fällt (Annahmen: Beide Sensoren werden komplett vom Lichtkegel abgedeckt. Die Abbildung ist relativ homogen über den ganzen Querschnitt des Lichtkegels oder der Motivabstand wird angepasst, so dass auf beiden Sensoren der gleich Bildausschnitt landet).
In beiden Fällen ist die Lichtintensität, also die Energie pro Fläche, und damit die wahrgenommene Bildhelligkeit gleich.
Warum ist die Lichtmenge und nicht nur die Intensität interessant?
Moderne Bildsensoren sind so gut, dass sie selber in den meisten Aufnahmesituationen keinen Beitrag zum Bildrauschen liefern. Die wichtigste Rauschquelle ist das Schrot- oder Quantisierungsrauschen des Lichts selber. Dessen Signalrauschverhältnis ist proportional zur Anzahl der detektierten Photonen, also zur Lichtmenge, die zur Bildentstehung beigetragen hat. Daraus resultiert der Vorteil bzgl. Rauschens von größeren Sensoren.
Die oft herangezogen Pixelgröße ist nur interessant, wenn man Bilder in der 1:1 Darstellung anschaut. Aber um Blder verschiedener Sensor zu vergleichen, verwende zumindest ich für beide den gleichen Bildausschnitt. Und zu dem tragen proportional zur Pixelgröße weniger der großen Pixel und mehr der kleinen Pixel bei, so dass das wahrgenommene Rauschen wieder nur von der Größe der Sensoren abhängt.
Ob ich den Vorteil des größeren Sensors ausnutzen kann , hängt davon ab, ob ich es schaffe ihn zum Einsatz zu bringen. Wer schon mal Tierfotografie betrieben hat, weiß dass eine Verringerung des Motivabstandes eine echte Herausforderung darstellen kann. Und wenn ich nur Bildausschnitte verwende, habe ich nichts gewonnen.
Das mit der Lichtmenge hat mir noch niemand beweisen können. Ich halte das für eine Forenlegende. Betrachten wir, böse wie wir sind, nur ein Viertel des Kleinbild-Bildes. Das muss demzufolge, da ja die Lichtmenge exakt der Lichtmenge auf dem FT-Sensor entspricht, auch genauso rauschen. Und alle drei anderen Viertel genauso. Aber zusammen, o Wunder, rauschen sie weniger? Wenn wir nun ein Achtel des Kleinbildsensors betrachten, dann müsste der ja mehr rauschen als ein FT-Sensor. Und das mal acht…..
Je größer die „Full-Well-Capacity“ einer Photodiode ist, desto geringer ist der Rauschanteil. Ob das nun eine Photodiode oder eine Million ist, und auf welche Fläche diese Dioden verteilt sind, ist irrelevant, das Rauschen entsteht in der Photodiode (und der anschließenden Signalverarbeitung.) Was Du vergleichst, sind Ergebnisse der Signalverarbeitung des Kameraprozessors. Das ist schlicht eine „On-Chip-Entrauschung“. Uralter Hut. Hat mit dem Sensorformat überhaupt nichts zu tun.
„Rauschen“ ist auf der Ebene einer Photodiode gar nicht wahrnehmbar, weil aus der Photodiode lediglich ein einzelner Spannungswert rauskommt. Interpretiert wird der erst durch die Signalverarbeitung. Je geringer der Spannungswert ist, (weil die Belichtung kurz ist oder es draußen dunkel ist) desto unsicherer ist der Wert, weil der „Dreck“ einen größeren Anteil des Pegels ausmacht. Wie große die Fläche neben der Photodiode ist, spielt dagegen keine Rolle.
Warum sind eigentlich die Mittelformatsensoren, die doch noch mal viermal so viel Licht auf dem Sensor haben, nicht schon längst bei ISO 10.000.000? Die X2D 100C ist immer noch bei ISO 25600 – sind die Jungs dort zu dumm, diese Lichtmengengeschichte zu kapieren?
Lichtmenge: Sprich mit Deinem Handwerker, der Dir Solarzellen auf’s Dach macht – größere Fläche, mehr Energieaufnahme. Was wäre da zu beweisen? Die Abhängigkeit des Schrotrauschens von der Lichtmenge ist Physik. Und dass das Schrotrauschen unter normalen Aufnahmebedingungen die dominierende Rauschquelle darstellt, ist Sensortechnik.
Bildausschnitte: Wenn Du ein Viertel eines KB-Bildes nimmst und auf die gleiche Größe wie 43-Bild vergrößerst, dann nimmt man das gleiche Rauschen wahr.
Den Rest Deiner Antwort verstehe ich nicht so recht. Ich wollte darauf hinaus, dass das Rauschen auf Pixelebene nicht relevant ist, da wir normalerweise Bilder und nicht Pixel anschauen. Dabei summiert sich das Rauschen einzelner Pixel über eine Fläche.
Ich habe nicht damit gerechnet, dass hier tatsächlich jemand mit sowas daherkommt. Deine Argumentation ist: Das ist so, weil es so ist.
Was ist der Unterschied zwischen einer Solaranlage auf dem Dach und einem Fotosensor? Richtig. Die eine produziert Energie – der andere verbraucht sie. Das eine ist eine Produktionsanlage, das andere ist ein Messinstrument. Du vergleichst ein Kraftwerk mit einem Voltmeter. Ausgesprochen sinnvoll.
Schrotrauschen: Das entsteht in den einzelnen Photodioden, weil die Leistung der Strahlungsquelle nicht konstant ist. Ja, das Schrotrauschen sinkt wenn die Lichtmenge steigt – AUF DIE EINZELNE PHOTODIODE. Das hat mit der Größe des Aufnahmemediums nichts, aber auch gar nichts zu tun.
Bildausschnitte: Ach – sieh an. Auf einmal rauscht ein Viertel eines KB-Bildes genauso wie ein FT-Sensor? Wie kann das sein, wenn doch die Photodioden größer sind? Es wäre doch zu erwarten, dass das Viertel weniger rauscht, da die Pixelanzahl kleiner und die Dioden größer sind?
Es gibt nur Rauschen auf Pixelebene. Es gibt kein irgendwie geartetes Rauschen des ganzen Bildes. Du nimmst das Rauschen als Körnung bzw. Störung im ganzen Bild wahr, aber entstehen tut es auf Pixelebene. Ansonsten müssten das ganze Gruppen von Photodioden sein, die gleichmäßig falsch speichern. (Das gab’s auch , hatte aber andere Gründe.) Das Rauschen summiert sich nicht über eine Fläche. Wie soll das gehen? Sinkt der Rauschabstand auf einer größeren Fläche auf einmal und die Fläche rauscht mehr als das einzelne Pixel? Was wird da überhaupt „summiert“? Wenn ich zehn Pixel habe, davon rauscht eines. Bei 1000 Pixel sind es dann, wenn das Verhältnis gleich bleibt, 100Pixel. Werden es über die Fläche auf einmal 500? Oder rauscht das einzelne Pixel auf einmal stärker?
Vergiss diesen Unfug mit der Lichtmenge. Das ist Quatsch, den irgendwer aufgebracht hat und alle plappern das nach. Das ist Pseudowissenschaft. Klingt total toll, ist aber absoluter Unsinn.
Wenn ich mir jetzt statt des Bildsensors eine Solarzelle hinter das Objektiv schraube wird es bei der Energieausbeute keinen Unterschied geben.
Eine Solarzelle in FT Größe und ein Objektiv mit 100mm Brennweite.
Eine Solarzelle in KB Größe und ein Objektiv mit 50mm Brennweite.
Der Energiertrag dürfte gleich sein.
Kommt auf die Blende an, nicht auf die Brennweite.
Ich erlaube mir, hier auch meine Formulierung einer Erklärung zu posten:
Die Sensorgröße hat per se KEINEN Einfluss auf die Tiefenschärfe, sondern lediglich die Größe des zur Bildausgabe verwendeten AUSSCHNITTs der verfügbaren Sensorfläche. Der Z-Wert, der die kritische Grenze für die Größe der Zerstreuungkreise darstellt (bei Überschreiten der Größe werden die Punkte als unscharf gesehen), beträgt 1/1500 der Diagonale des Bereichs der Sensorfläche, die später für die Ausgabe des Bildes verwendet wird. Diese 1/1500 sind auch kein Absolutwert, sondern sie gehen von der Voraussetzung aus, dass das ausgegebene Bild aus dem „Standard-Betrachtungsabstand“ aus betrachtet wird, dieser entspricht der Diagonale des ausgegebenen Bildes. Genau dann kann ein normalsichtiges Auge in etwa 1500 Bildpunkte differenziert wahrnehmen. Verkürzt man den Betrachtungsabstand beispielsweise, dann können vom Auge mehr Bildpunkte differenziert werden und der Z-Wert für das Bild bzw. den Bildausschnitt sinkt.
Bleibe wir aber beim Standardbetrachtungsabstand und bei den 1500 Bildpunkten. Die Sensorgröße hat somit auf den Z-Wert und in der Folge auf die Schärfentiefe nur insoferne eine Auswirkung, als der für das Sensorformat erreichbare maximale Z-Wert genau dann erreicht wird bzw. vorliegt, wenn die GESAMTE Sensorfläche für die Erstellung des Ausgabebildes verwendet wird. Bei Verwendung eines Ausschnittes des Sensors oder eines kleineren Sensors ist der Z-Wert kleiner und damit SINKT dann die Schärfentiefe. Zusammengefasst bedeutet das, dass der bei Verwendung eines kleineren Sensors bei Nutzung eines gleichbrennwertigen Objektivs die Schärfentiefe geringer ist, im Falle des Vergleichs MFT zu Kleinbild genau halb so groß; bei Verwendung eines bezüglich des Bildwinkel äquivalenten Objektivs, im Vergleich MFT zu KB also bei halber Brennweite, insgesamt wieder doppelt so groß ist, da sich die Schärfentiefe sich umgekehrt proportional zum Quadrat der Brennweite verhält.
Vielleicht leichter verstehen kann man es an einem Beispiel: es gibt von Nikon KB-DLSR-Kameras, an denen bei Verwendung eines DX-Objektivs für die Erstellung des Bildes nur der Teil des Sensors verwendet wird, der dem DX-Format entspricht, und die Schärfentiefe / Freistellung entspricht dann auf dem an sich KB-Sensor“ dem eines DX-Sensors.
Genauso verhält es sich, wenn man bei einem mit KB-Sensor aufgenommenen Bild einen MFT-Ausschnitt wählt und zur Bildausgabe verwendet. Nehmen wir an, die Schärfentiefe des Bildes (BILD 1) im KB-Format hätte den Wert 1, die Schärfentiefe des Ausschnitts(BILD 2) halbiert sich im Vergleich zur Schärfentiefe des Gesamtbilds und beträgt daher 0,5. Möchte man für den MFT-Ausschnitt aber den gleichen Bildwinkel wie für das KB-Bild, so flanscht man ein Objektiv mit halber Brennweite an die KB-Kamera, dann vervierfacht sich die Schärfentiefe bei Verwendung des gesamten Sensorinhalts (also KB-Format, BILD 3) und beträgt somit 4, wir verwenden wieder nur den MFT-Ausschnitt des Sensors für unser Bild (BILD 4), damit halbiert sich die Schärfentiefe im Vergleich zum Gesamtbild (BILD 3) auf einen Wert von 2 und beträgt somit bei gleichem Bildwinkel das doppelte des Schärfentiefewerts für das erste KB-Bild (BILD 1).
Ich habe bewusst NICHT mit dem 1/1500 gerechnet. Aber die Ergebnisse sind im Endeffekt identisch….
Hallo Reinhard,
Du hattest ja in der Antwort auf den Kommentar geschrieben, dass die Schärfentiefe bei 200mm 2,8 bei einem 40MP Sensor und vier Meter Abstand 22mm betrage. Ich hatte früher mal eine D800 und fand das weniger als ich das in Erinnerung hatte. Habe mal entsprechende Bilder durchgeguckt – und hätte jetzt eher auf 4-5cm getippt (ohne aber die Entfernung sicher einschätzen zu können). Daraufhin habe ich mal zwei FotoApps befragt, die bei einer Z9 und den von Dir geschilderten Rahmenbedingungen beide gut 6cm errechnet haben.
Nutzen die eine andere (falsche) Formel? Scheinbar werden alle Parameter berücksichtigt.
Viele Grüße
Joachim
Die Frage ist der Zerstreuungskreisdurchmesser. Bei einem Zerstreuungskreisdurchmesser von 0,009mm ist die Schärfentiefe etwa 20mm. Um auf 6cm Schärfentiefe zu kommen, muss der Zerstreuungskreis irgendwo bei 0,03mm liegen. Das sind etwa 5MP. Betrachtungsabstand gleich Bilddiagonale.
Ja – habe die 0,03 inzwischen in der App (PhotoPills) gefunden, – mit der Bezeichnung CoC (?) – bei meinen Olys steht 0,015 und zwar sowohl bei meiner E-M1, als auch bei meiner E-M1.3. Offenbar nutzen die eine Formel, die nur das Sensorformat und nicht die Auflösung berücksichtigt.
Gut, dass ich die App nur für Sonnen- und Mondstände benutze.
Die Hyperfokalwerte, die die App errechnet sind dann vermutlich auch nicht korrekt?
Viele Grüße
Joachim
CoC = Circle of Confusion. Zerstreuungskreis.
Wenn der COC nicht auf die Auflösung angepasst ist, ist auch die HyFo nicht korrekt. Bei 40mm und f/5,6 sollte beim 20MP- Sensor irgendwas um die 40 Meter rauskommen.
18,79m – das ist ja nur knapp daneben 🙁