Es gab mal ne Website „6 Megapixel sind genug“. Und Olympus hat mal gesagt, 12 Megapixel würden eigentlich ausreichen. (Dann kam der Sony-Sensor mit 16MP).

Etwa 2010 hat mir ein Mann auf der Photokina am Stand eines Fachkameraherstellers erklärt, dass gaaanz viele Pixel supergut sind – weil die Objektive diese Auflösungen zwar nicht liefern können, aber man dann mehr Raum für die Nachbearbeitung hat.

Also sind gaanz viele Megapixel prima.

Warum haben wir nicht schon längst den berühmten Sony 47MP-Sensor für mFT in den Kameras? Den gibt’s doch schon seit Jahren? Und für Kleinbild gibt’s schon seit nem Jahrzehnt Sensoren mit 250MP?

Wo bleiben die Pixelmonster? Handys haben schon lange 40MP und mehr!

Das Problem liegt an mehreren Fronten:

Datenmengen.

Die OM-1II schaufelt 120 RAWS mit 20MP pro Sekunde vom Sensor. Das sind grob 4GB/s. Bevor das Gigabytes sind, müssen die analogen Daten des Sensors erst noch durch den A/D-Wandler und danach müssen die RAWs komprimiert und eventuell auch noch in JPGs entwickelt werden. Das muss man erstmal schaufeln ohne dass die Leitungen glühen. Es gibt Kleinbildsensoren, die auch 120 fps schaffen – aber nicht RAW in Vollauflösung. (OK, der neue Sony-Sensor aus der A9III schafft das, aber der hat auch nur 24MP.)

Beugung.

Bei 20MP FT liegt die Beugungsgrenze bei Blende 11. Bei 47MP landen wir bei Blende 8. Das ist ein bisschen doof, wenn wir Objektive wie das 150-400 mit MC-20 betreiben wollen. Objektive mit Endlichtstärken von 6,3 oder 6,7 kann man dann gar nicht mehr abblenden.

Wärme.

Hochauflösende, schnelle Sensoren (Sync-Zeiten von 1/100s und kürzer) produzieren Wärme. Die muss abgeführt werden. Das erfordert Aufwand. Gleichzeitig fressen Prozessoren und Speicher ebenfalls Strom und produzieren Wärme. Die Akkus können nicht beliebig groß werden, die Kamera sollte auch noch bei 40° Außentemperatur die Möglichkeit haben, sich selbst zu kühlen, auch wenn sie jemand in der Hand hält, der nicht gegrillt werden will.

Objektive.

Auch wenn man mit Nachbearbeitung noch was rausholen kann – Objektive, die bei mFT 50MP auf den Sensor bringen, sind gewaltig – und gewaltig teuer. Muss man zahlen und schleppen wollen.

Rauschen.

Nach Aussage aus den OMDS-Laboren sind 28MP derzeit eine Grenze, deren Überschreiten einen rapiden Verlust an Bildqualität zur Folge hat. Ab 28 MP auf FT ist das Rauschen und der Dynamikverlust auch mit massivem Einsatz an Computertechnik nicht mehr in den Griff zu bekommen. Und dabei geht es nicht um bereits existierende Sensoren, sondern um die Sensoren, die derzeit in der Entwicklung sind und eine Marktreife für Consumer etwa im Jahre 2030 haben.

Also schminkt euch die Megapixel ab. Endgültig. Wir können in zehn Jahren noch mal kucken, ob jemand was tolles erfunden hat – aber bis dahin:

EOD.

25 Replies to “Meeegapixel”

        1. Nein. Aber was soll da toll dran sein? Ein Verfahren, das zigtausende Einzelbilder verrechnet? Da gab’s mal vor zwanzig Jahren Gigapixel-Panos, da hat man mit einer damaligen Kamera ebenfalls tausende Bilder gemacht und dann zu einem Bild verrechnet. Man kann dieses „Pixel“ in Schrankgröße bauen und da entsprechend weit davon entfernt ein Raster mit ner Million Punkten und dann jeden Rasterpunkt fünf Sekunden offen halten, bis genug Licht für den riesigen Sensor durchgekommen ist. Das ganze Bild dauert dann eineinhalb Jahre.

          Wenn man genug Forschungsgelder hat zum Verbraten kann das Sinn ergeben…

  1. Ist es richtig, dass der OM-1-Sensor die „Quad-Pixel“-Technik benutzt?
    Falls ja: Bedeutet das etwa, dass beim Belichten ca. 20 Megapixel und
    beim Fokussieren ca. 80 Megapixel verwendet werden? Macht die Beugung
    beim Fokussieren mit einem so hochauflösenden Bildsensor kein Problem?

    1. Ja, er benutzt und Nein, das macht kein Problem, weil ja nicht ein einzelnes Pixel allein für den Fokus verwendet wird, sondern ein „Cluster von von etwa 10.000 Pixeln – das ist ein „Kreuzsensor“. Und der ist so groß, dass die Beugung keinerlei Rolle spielt.

  2. DOF Kriterium 1/1500 Formatdiagonale. Für die Schärfefanatiker bieten manche DoF Rechner auch etwas kleinere Zerstreuungskreise rund 1/2000 oder auch etwas mehr.
    Rechnet man das auf die Fläche um, so landet man bei den Zeitlosen 1 Mio-Bildpunkte, die sich aus der Augenauflösung bei ~100% Visus ergeben, wenn das Gesammtbild innerhalb des deutlichen Sehbereiches gehalten wird.
    Schlägt führt man für die unzlänglichkeiten der Digitalisierung beim Sensor einen Aufschlag ein, so landet man je nachdem bei 12…24 Mpix, wo man wirklich für alle Fälle genügend Ausgangsdaten für das die Endbildnutzung hat (okey Nase vor Poster ausgenommen). Wer so fotografiert, wie man das früher mit dem Dia-Film machen musste: „Bild bei Aufnahme fertig machen“, der ist damit auf alle Fälle bedient.
    Wer wie früher in der Dunkelkammer seine Bilder aus dem Negativ herausvergrößern wollte, mit Abwedeln, Masken etc. mehr herausholen wollte, wer also vieles von den Daten einer Aufnahme wegwerfen will, für diese Klientel reicht das damit gebotene nicht immer. Deshalb werden die Bearbeitsunsreserven in Format-Diskussionen ja so gerne herausgehoben.
    Für die alte Zeit, hies dies aber – sofern solvent und genug Zeit- der Griff zu Mittelformat wenn nicht gar zum die Großformat-Schleppen.

    So sehe ich das. Und letztlich hat sich für das groß der verkauften Kameras in diesem Pixelbereich die Situation stabilisiert, selbst bei den größeren Formaten mit 24 Mpix Basis-Modell bei VF, und mehr für die solventen Fanatiker.
    Das einzige was ich mir für MFT wünschen würde, wären die 24 Mpix. in 4/3 und etwas Aufschlag für einen Multi-Format-Sensor um bei Panorama näher an APS-C heranzurücken. Das in einer Kamera im EM-5 MARK2- Gehäuse mit 15 Frames/Sec. Max E-Shutter als gediegene Kamera für Unterwegs. Gerne auch mit GPS wie bei der 1X, notfalls in einem anschraubbaren Griff (wie gehabt mit Mirkofonbuchsen).

  3. War gestern Abend auf einem Vortrag von Michael Martin. Der projiziert die 20 MPix-Bilder aus seiner D5 auf eine 6x12m (geschätzt) Leinwand und – oh Wunder – die Qualität ist großartig.
    Wenn man – wie ich – recht weit vorne sitzt, sieht man bei Bildern, die in der Dämmerung gemacht wurden, dass auch die D5 bei wenig Licht nicht zaubern kann – aber oh Wunder – das interessiert nicht die Bohne weil einen die Bilder und der Vortrag so faszinieren und begeistern.

    Grüße
    Joachim

    1. ….und wenn er die 20 MPix-Bilder projiziert hat er mit allergrößter Wahrscheinlichkeit keinen Projektor, der mehr als 4K-Auflösung hat, und das sind dann rund 8 Megapixel auf der Leinwand.

      1. Stimmt – habe etwas recherchiert – ein sündhaft teurer (6-stellig) 4K-Projektor mit über 30.000 Lumen… aber „nur“ 4K.
        Grüße Joachim

    2. Alles gut und schön, es gibt aber auch Gegenbeispiele.

      Zum Beispiel bei mir negativ in meiner Fotopraxis aufgefallen: ein Fotobuch DIN A4 quer, ein Foto innen über die Doppelseite gezogen (also 2x A4 quer nebeneinander). Abgesehen vom passenden Motiv, wo oben und unten viel weg geschnitten werden kann um das extreme Seitenverhältnis zu bekommen sehen Details bei 20Mpix dann matschig aus. Wie ein (älteres) Handyfoto in etwa. Ja okay, die Stimmung kann man trotzdem transportieren. Aber bei dem Preis für Kamera, Urlaub und Fotobuch ärgert es mich trotzdem. Mit 62Mpix dagegen obiges Beispiel problemfrei und detailreich.

      1. Die Nummer ist einfach: das sind quer 23 inch. Das sind 227 dpi. Kaum ein Fotobuch kann 300dpi tatsächlich abbilden, da ist immer Luft. Wenn das nach Matsche aussieht, dann ist das nicht die Sache der Kamera, sondern von Nachbearbeitung oder Fotobucherstellung. Ich habe in meinem allerersten Buch mit 7,5 MP eine A4-Doppelseite im Offset gemacht. Ein Kunde hat mal einen 1MP-Ausschnitt aus einem Bild von mir auf 1×1 Meter aufgeblasen und auf AluDibond in die Eingangshalle gehängt. Das Problem kann nicht in der Kamera liegen.

        1. Und dann ist links noch ein Mast im Bild und der muss weggecroped werden oder sowas und man ist ganz schnell deutlich unter 40% der ursprünglichen Megapixel und unter 200dpi. Und zumindest ich bilde mir ein, den Unterschied zu 300/400dpi zu sehen.

          1Mpix auf 1qm geht nur, wenn man weit als Betrachter vom Bild weg ist. Das ist beim Fotobuch nicht der Fall. Und wenn eine A4 Doppelseite zwei hochkant stehende A4 Seiten umfasst, dann ist das Seitenverhältnis ziemlich genau 3:4, dh. bei einem Hochkant-Foto mit MFT muss kaum gecroped werden. Anders wenn die Seiten quer liegen und das Seitenverhältnis etwa 3:1 ist. Ich sage ja nicht, dass es nicht geht. Aber top sieht es halt nichtmehr aus.

          1. Wenn die Aufnahme ok ist, sollte das in der Nachbearbeitung problemlos rauszuholen sein. Ich drucke A2 selbst (von MFT), das ist ja praktisch A4 doppelt lang. Dabei habe ich auch öfters noch Ausschnitte. Ist etwas Aufwand, sieht nachher aber niemand und ich habe im Fotoclub ein paar sehr kritische Kollegen die jedes Bild am liebsten mit der Lupe ansehen würden… 😉

  4. Ob die eigenen Objektive noch Reserven haben in Puncto Auflösung, kann man ja mit dem HiRes-Modus ausprobieren (sofern vorhanden). Ich kann da tatsächlich ein Mehr an Details rausholen, und auch eine zum Vergleich herangezogene 30 Megapixel „Vollformat“-Kamera leicht übertreffen. In der Praxis nutze ich den HiRes-Modus dann aber doch fast nie, weil ich für meine Zwecke gut auskomme mit 20 Megapixel. Auch Kalender-Ausdrucke in A2, ganz nah betrachtet, lassen keine Wünsche offen in Hinsicht auf Detaildarstellung, und größere Fotos hänge ich bei mir nicht auf. Etliche der genannten A2-Bilder stammen sogar von meiner 16-Megapixel E-M10 II und sind noch beschnitten auf rund 12 MP. Größer werden die Bilder lediglich gezeigt auf der Leinwand mit 4K-Projektor, und der hat ja nur rund 8 Megapixel zum Zeigen, aber man sitzt wenige Meter entfernt. Auch hier tolle Schärfe. Was ich mir noch vorstellen könnte an technischer Weiterentwicklung wäre eine schnellere Auslesung des Sensors bei der Hi-Res-Aufnahme, so dass bewegte Objekte keine Mehrfachdarstellung oder Mehrfachkonturen mehr zeigen. Die Smartphone-Kameras machen ja auch gestackte Aufnahmen mit unterschiedlicher Belichtung hintereinander, ohne dass man das merkt.

    1. Du hast da einen kleinen Denkfehler im ersten Satz. Der HiRes Mode sagt nichts über Auflösungsreserven des Objektivs aus, da die Teilaufnahmen „nur“ die Sensorauflösung haben.

      1. Die Sensorauflösung wird dadurch erhöht, dass der Sensor um weniger als eine Pixelbreite verschoben wird, und somit auch Details zur Darstellung kommen, die bei einfacher Belichtung quasi durchs Raster fallen.

  5. Beugung bei f 11? Ich meine, dass in früheren PAT-Berichten die Grenze bei f 6.7 genannt wurde. Bei eigenen Tests habe ich einen kleinen Unterschied bei f 5.6 und 8 festgestellt, deutlicher bei f 11 und ab 13 grenzwertig. Ist meine Erinnerung schlecht oder sind die Kriterien heute milder?

    1. Man muss Beugungsbegrenzte und „normale“ Objektive unterscheiden. Beugungsbegrenzte Objektive werden bereits beim ersten Abblenden nach der Offenblende schlechter. Wenn das beugungsbegrenzte Objektiv 1,8 hat, dann schlägt bereits bei 2,0 die Beugung zu – und zwar unabhängig von der Auflösung und/oder Größe des Sensors. Denn, Überraschung, die Beugung findet nicht am Sensor statt, sondern im Objektiv. Es ist nur so, dass der Fehler durch die Beugung aufgrund des kleinen, zulässigen Zerstruungskreisdurchmessers bei mFT eben bei Blende 11 sichtbar wird. (Spaßigerweise versucht die Kamera diesen Fehler durch die Beugung intern rauszurechnen. Die Ergebnisse, die ihr also aus euren Kameras bei den Tests bekommt, lassen keine Rückschlüsse auf die tatsächliche Beugung zu, sondern nur auf die Tätigkeit der internen Korrektur. Um den Effekt tatsächlich zu sehen, müsst ihr rein mechanische Objektive verwenden, sonnvollerweise Beugungsbegrenzte…..)

      1. „Spaßigerweise versucht die Kamera diesen Fehler durch die Beugung intern rauszurechnen“
        Hä? Wo finde ich nähere (Hersteller) Angaben dazu?

        Nach physikalischer Optik müsste die Fouriertransformierte des Bildes in voller Pixelauflösung mit der FT des Beugungskreises bei mehreren Wellenlängen verrechnet und rücktransformiert werden. Fünf- oder 7-eckigen Blenden erzeugen weit komplexere und vor allem grössere Beugungsmuster als die simply Airy Scheibe. Der zusätzliche Rechenaufwand wäre wohl so beträchtlich, dass die Bildfrequenz ab Blende 11 reduziert würde. Es sei denn, dass ich die Leistungsfähigkeit der Bildprozessoren in heutigen Kamreas massiv unterschätze 🙂
        P.S. von Minolta gabe es, laut Google, mal ein apodisiertes STF 135mm f/2.8 T4.5 Objektiv wo die Beugung einer 9-eckigen Blende optisch, d.H. durch ein negativ Element mit radialem Graufilter optisch korrigiert wurde.

        Verwunderte Grüsse
        Christoph

        1. Die Nummer ist Asbach Uralt. Das hat mit der E-M1 vor einem Jahrzehnt angefangen. Stand damals sogar in den Spec-Sheets, die bei der Präsentation an die Journalisten ausgegeben wurden. Nimm ein 50-500, da kann man das wunderbar sehen. Die Mathematik dahinter ist mir wurscht, es funktioniert auf jeden Fall.

        2. Das Stichwort ist Dekonvolutionsverfahren. Kenne ich aus der Mikroskopie, da ist Beugung noch viel lästiger als in der Allerweltsfotografie.

          Das gab’s schon zu meinen Laborzeiten in den 1990ern als kommerzielle Software für PC zu kaufen. Gut wir haben die Software nur mit 4-6MP großen Bildern gefüttert, nicht mit 20+MP – aber verglichen mit einem mobilen Prozessor der 2010er Jahre waren unsere Kisten bessere Taschenrechner. Der Rechenaufwand dafür muss sich also in Grenzen halten. Man musste aber die Abbildungsparameter des Objektives kennen oder selbst bestimmen.

      2. Wie erkennt man von dem FT und den mFT beugungsbegrenzte Objektive?
        Gibt es da irgendwo eine Liste? Oder an Bezeichnungen?
        Schönen Gruß
        Werner

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert