There was once a website “6 megapixels are enough”. And Olympus once said that 12 megapixels would actually be enough. (Then came the Sony sensor with 16MP).

Around 2010, a man at a view camera manufacturer’s stand at Photokina explained to me that lots and lots of pixels are super good – because the lenses can’t deliver these resolutions, but then you have more room for post-processing.

So lots and lots of megapixels are great.

Why haven’t we had the famous Sony 47MP sensor for mFT in our cameras for a long time? Hasn’t it been around for years? And there have been sensors with 250MP for 35mm for a decade?

Where are the pixel monsters? Mobile phones have had 40MP and more for a long time!

The problem lies on several fronts:

Data volumes.

The OM-1II shovels 120 RAWS with 20MP per second from the sensor. That’s roughly 4GB/s. Before these are gigabytes, the analogue data from the sensor first has to pass through the A/D converter and then the RAWs have to be compressed and possibly also developed into JPGs. You first have to shovel this without the cables glowing. There are 35mm sensors that can also manage 120 fps – but not RAW in full resolution. (OK, the new Sony sensor from the A9III can do this, but it only has 24MP).

Diffraction.

At 20MP FT, the diffraction limit is f/11. At 47MP, we end up at f/8, which is a bit daft if we want to use lenses like the 150-400 with MC-20. Lenses with maximum apertures of 6.3 or 6.7 can then no longer be stopped down at all.

Warmth.

High-resolution, fast sensors (sync times of 1/100s and shorter) produce heat. This must be dissipated. That requires effort. At the same time, processors and memory also consume power and produce heat. The batteries cannot grow to any size, the camera should be able to cool itself even at 40°C outside temperature, even if it is held in the hand of someone who does not want to be grilled.

Lenses.

Even if you can still get something out of it with post-processing – lenses that put 50MP on the sensor with mFT are huge – and hugely expensive. You have to want to pay and lug them around.

Noise.

According to the OMDS labs, 28MP is currently a limit which, if exceeded, results in a rapid loss of image quality. From 28 MP on FT, the noise and the loss of dynamic range can no longer be controlled, even with massive use of computer technology. And we are not talking about existing sensors, but about sensors that are currently under development and will be ready for the consumer market in around 2030.

So make up your minds about megapixels. For good. We can check back in ten years to see if someone has invented something great – but until then:

EOD.

25 Replies to “Meeegapixel”

        1. Nein. Aber was soll da toll dran sein? Ein Verfahren, das zigtausende Einzelbilder verrechnet? Da gab’s mal vor zwanzig Jahren Gigapixel-Panos, da hat man mit einer damaligen Kamera ebenfalls tausende Bilder gemacht und dann zu einem Bild verrechnet. Man kann dieses “Pixel” in Schrankgröße bauen und da entsprechend weit davon entfernt ein Raster mit ner Million Punkten und dann jeden Rasterpunkt fünf Sekunden offen halten, bis genug Licht für den riesigen Sensor durchgekommen ist. Das ganze Bild dauert dann eineinhalb Jahre.

          Wenn man genug Forschungsgelder hat zum Verbraten kann das Sinn ergeben…

  1. Ist es richtig, dass der OM-1-Sensor die “Quad-Pixel”-Technik benutzt?
    Falls ja: Bedeutet das etwa, dass beim Belichten ca. 20 Megapixel und
    beim Fokussieren ca. 80 Megapixel verwendet werden? Macht die Beugung
    beim Fokussieren mit einem so hochauflösenden Bildsensor kein Problem?

    1. Ja, er benutzt und Nein, das macht kein Problem, weil ja nicht ein einzelnes Pixel allein für den Fokus verwendet wird, sondern ein “Cluster von von etwa 10.000 Pixeln – das ist ein “Kreuzsensor”. Und der ist so groß, dass die Beugung keinerlei Rolle spielt.

  2. DOF Kriterium 1/1500 Formatdiagonale. Für die Schärfefanatiker bieten manche DoF Rechner auch etwas kleinere Zerstreuungskreise rund 1/2000 oder auch etwas mehr.
    Rechnet man das auf die Fläche um, so landet man bei den Zeitlosen 1 Mio-Bildpunkte, die sich aus der Augenauflösung bei ~100% Visus ergeben, wenn das Gesammtbild innerhalb des deutlichen Sehbereiches gehalten wird.
    Schlägt führt man für die unzlänglichkeiten der Digitalisierung beim Sensor einen Aufschlag ein, so landet man je nachdem bei 12…24 Mpix, wo man wirklich für alle Fälle genügend Ausgangsdaten für das die Endbildnutzung hat (okey Nase vor Poster ausgenommen). Wer so fotografiert, wie man das früher mit dem Dia-Film machen musste: “Bild bei Aufnahme fertig machen”, der ist damit auf alle Fälle bedient.
    Wer wie früher in der Dunkelkammer seine Bilder aus dem Negativ herausvergrößern wollte, mit Abwedeln, Masken etc. mehr herausholen wollte, wer also vieles von den Daten einer Aufnahme wegwerfen will, für diese Klientel reicht das damit gebotene nicht immer. Deshalb werden die Bearbeitsunsreserven in Format-Diskussionen ja so gerne herausgehoben.
    Für die alte Zeit, hies dies aber – sofern solvent und genug Zeit- der Griff zu Mittelformat wenn nicht gar zum die Großformat-Schleppen.

    So sehe ich das. Und letztlich hat sich für das groß der verkauften Kameras in diesem Pixelbereich die Situation stabilisiert, selbst bei den größeren Formaten mit 24 Mpix Basis-Modell bei VF, und mehr für die solventen Fanatiker.
    Das einzige was ich mir für MFT wünschen würde, wären die 24 Mpix. in 4/3 und etwas Aufschlag für einen Multi-Format-Sensor um bei Panorama näher an APS-C heranzurücken. Das in einer Kamera im EM-5 MARK2- Gehäuse mit 15 Frames/Sec. Max E-Shutter als gediegene Kamera für Unterwegs. Gerne auch mit GPS wie bei der 1X, notfalls in einem anschraubbaren Griff (wie gehabt mit Mirkofonbuchsen).

  3. War gestern Abend auf einem Vortrag von Michael Martin. Der projiziert die 20 MPix-Bilder aus seiner D5 auf eine 6x12m (geschätzt) Leinwand und – oh Wunder – die Qualität ist großartig.
    Wenn man – wie ich – recht weit vorne sitzt, sieht man bei Bildern, die in der Dämmerung gemacht wurden, dass auch die D5 bei wenig Licht nicht zaubern kann – aber oh Wunder – das interessiert nicht die Bohne weil einen die Bilder und der Vortrag so faszinieren und begeistern.

    Grüße
    Joachim

    1. ….und wenn er die 20 MPix-Bilder projiziert hat er mit allergrößter Wahrscheinlichkeit keinen Projektor, der mehr als 4K-Auflösung hat, und das sind dann rund 8 Megapixel auf der Leinwand.

      1. Stimmt – habe etwas recherchiert – ein sündhaft teurer (6-stellig) 4K-Projektor mit über 30.000 Lumen… aber „nur“ 4K.
        Grüße Joachim

    2. Alles gut und schön, es gibt aber auch Gegenbeispiele.

      Zum Beispiel bei mir negativ in meiner Fotopraxis aufgefallen: ein Fotobuch DIN A4 quer, ein Foto innen über die Doppelseite gezogen (also 2x A4 quer nebeneinander). Abgesehen vom passenden Motiv, wo oben und unten viel weg geschnitten werden kann um das extreme Seitenverhältnis zu bekommen sehen Details bei 20Mpix dann matschig aus. Wie ein (älteres) Handyfoto in etwa. Ja okay, die Stimmung kann man trotzdem transportieren. Aber bei dem Preis für Kamera, Urlaub und Fotobuch ärgert es mich trotzdem. Mit 62Mpix dagegen obiges Beispiel problemfrei und detailreich.

      1. Die Nummer ist einfach: das sind quer 23 inch. Das sind 227 dpi. Kaum ein Fotobuch kann 300dpi tatsächlich abbilden, da ist immer Luft. Wenn das nach Matsche aussieht, dann ist das nicht die Sache der Kamera, sondern von Nachbearbeitung oder Fotobucherstellung. Ich habe in meinem allerersten Buch mit 7,5 MP eine A4-Doppelseite im Offset gemacht. Ein Kunde hat mal einen 1MP-Ausschnitt aus einem Bild von mir auf 1×1 Meter aufgeblasen und auf AluDibond in die Eingangshalle gehängt. Das Problem kann nicht in der Kamera liegen.

        1. Und dann ist links noch ein Mast im Bild und der muss weggecroped werden oder sowas und man ist ganz schnell deutlich unter 40% der ursprünglichen Megapixel und unter 200dpi. Und zumindest ich bilde mir ein, den Unterschied zu 300/400dpi zu sehen.

          1Mpix auf 1qm geht nur, wenn man weit als Betrachter vom Bild weg ist. Das ist beim Fotobuch nicht der Fall. Und wenn eine A4 Doppelseite zwei hochkant stehende A4 Seiten umfasst, dann ist das Seitenverhältnis ziemlich genau 3:4, dh. bei einem Hochkant-Foto mit MFT muss kaum gecroped werden. Anders wenn die Seiten quer liegen und das Seitenverhältnis etwa 3:1 ist. Ich sage ja nicht, dass es nicht geht. Aber top sieht es halt nichtmehr aus.

          1. Wenn die Aufnahme ok ist, sollte das in der Nachbearbeitung problemlos rauszuholen sein. Ich drucke A2 selbst (von MFT), das ist ja praktisch A4 doppelt lang. Dabei habe ich auch öfters noch Ausschnitte. Ist etwas Aufwand, sieht nachher aber niemand und ich habe im Fotoclub ein paar sehr kritische Kollegen die jedes Bild am liebsten mit der Lupe ansehen würden… 😉

  4. Ob die eigenen Objektive noch Reserven haben in Puncto Auflösung, kann man ja mit dem HiRes-Modus ausprobieren (sofern vorhanden). Ich kann da tatsächlich ein Mehr an Details rausholen, und auch eine zum Vergleich herangezogene 30 Megapixel “Vollformat”-Kamera leicht übertreffen. In der Praxis nutze ich den HiRes-Modus dann aber doch fast nie, weil ich für meine Zwecke gut auskomme mit 20 Megapixel. Auch Kalender-Ausdrucke in A2, ganz nah betrachtet, lassen keine Wünsche offen in Hinsicht auf Detaildarstellung, und größere Fotos hänge ich bei mir nicht auf. Etliche der genannten A2-Bilder stammen sogar von meiner 16-Megapixel E-M10 II und sind noch beschnitten auf rund 12 MP. Größer werden die Bilder lediglich gezeigt auf der Leinwand mit 4K-Projektor, und der hat ja nur rund 8 Megapixel zum Zeigen, aber man sitzt wenige Meter entfernt. Auch hier tolle Schärfe. Was ich mir noch vorstellen könnte an technischer Weiterentwicklung wäre eine schnellere Auslesung des Sensors bei der Hi-Res-Aufnahme, so dass bewegte Objekte keine Mehrfachdarstellung oder Mehrfachkonturen mehr zeigen. Die Smartphone-Kameras machen ja auch gestackte Aufnahmen mit unterschiedlicher Belichtung hintereinander, ohne dass man das merkt.

    1. Du hast da einen kleinen Denkfehler im ersten Satz. Der HiRes Mode sagt nichts über Auflösungsreserven des Objektivs aus, da die Teilaufnahmen „nur“ die Sensorauflösung haben.

      1. Die Sensorauflösung wird dadurch erhöht, dass der Sensor um weniger als eine Pixelbreite verschoben wird, und somit auch Details zur Darstellung kommen, die bei einfacher Belichtung quasi durchs Raster fallen.

  5. Beugung bei f 11? Ich meine, dass in früheren PAT-Berichten die Grenze bei f 6.7 genannt wurde. Bei eigenen Tests habe ich einen kleinen Unterschied bei f 5.6 und 8 festgestellt, deutlicher bei f 11 und ab 13 grenzwertig. Ist meine Erinnerung schlecht oder sind die Kriterien heute milder?

    1. Man muss Beugungsbegrenzte und “normale” Objektive unterscheiden. Beugungsbegrenzte Objektive werden bereits beim ersten Abblenden nach der Offenblende schlechter. Wenn das beugungsbegrenzte Objektiv 1,8 hat, dann schlägt bereits bei 2,0 die Beugung zu – und zwar unabhängig von der Auflösung und/oder Größe des Sensors. Denn, Überraschung, die Beugung findet nicht am Sensor statt, sondern im Objektiv. Es ist nur so, dass der Fehler durch die Beugung aufgrund des kleinen, zulässigen Zerstruungskreisdurchmessers bei mFT eben bei Blende 11 sichtbar wird. (Spaßigerweise versucht die Kamera diesen Fehler durch die Beugung intern rauszurechnen. Die Ergebnisse, die ihr also aus euren Kameras bei den Tests bekommt, lassen keine Rückschlüsse auf die tatsächliche Beugung zu, sondern nur auf die Tätigkeit der internen Korrektur. Um den Effekt tatsächlich zu sehen, müsst ihr rein mechanische Objektive verwenden, sonnvollerweise Beugungsbegrenzte…..)

      1. “Spaßigerweise versucht die Kamera diesen Fehler durch die Beugung intern rauszurechnen”
        Hä? Wo finde ich nähere (Hersteller) Angaben dazu?

        Nach physikalischer Optik müsste die Fouriertransformierte des Bildes in voller Pixelauflösung mit der FT des Beugungskreises bei mehreren Wellenlängen verrechnet und rücktransformiert werden. Fünf- oder 7-eckigen Blenden erzeugen weit komplexere und vor allem grössere Beugungsmuster als die simply Airy Scheibe. Der zusätzliche Rechenaufwand wäre wohl so beträchtlich, dass die Bildfrequenz ab Blende 11 reduziert würde. Es sei denn, dass ich die Leistungsfähigkeit der Bildprozessoren in heutigen Kamreas massiv unterschätze 🙂
        P.S. von Minolta gabe es, laut Google, mal ein apodisiertes STF 135mm f/2.8 T4.5 Objektiv wo die Beugung einer 9-eckigen Blende optisch, d.H. durch ein negativ Element mit radialem Graufilter optisch korrigiert wurde.

        Verwunderte Grüsse
        Christoph

        1. Die Nummer ist Asbach Uralt. Das hat mit der E-M1 vor einem Jahrzehnt angefangen. Stand damals sogar in den Spec-Sheets, die bei der Präsentation an die Journalisten ausgegeben wurden. Nimm ein 50-500, da kann man das wunderbar sehen. Die Mathematik dahinter ist mir wurscht, es funktioniert auf jeden Fall.

        2. Das Stichwort ist Dekonvolutionsverfahren. Kenne ich aus der Mikroskopie, da ist Beugung noch viel lästiger als in der Allerweltsfotografie.

          Das gab’s schon zu meinen Laborzeiten in den 1990ern als kommerzielle Software für PC zu kaufen. Gut wir haben die Software nur mit 4-6MP großen Bildern gefüttert, nicht mit 20+MP – aber verglichen mit einem mobilen Prozessor der 2010er Jahre waren unsere Kisten bessere Taschenrechner. Der Rechenaufwand dafür muss sich also in Grenzen halten. Man musste aber die Abbildungsparameter des Objektives kennen oder selbst bestimmen.

      2. Wie erkennt man von dem FT und den mFT beugungsbegrenzte Objektive?
        Gibt es da irgendwo eine Liste? Oder an Bezeichnungen?
        Schönen Gruß
        Werner

Leave a Reply

Your email address will not be published. Required fields are marked *