Aki Murata hat in einem Interview angekündigt, dass OMDS noch dieses Jahr (!) ein tolles neues Produkt ankündigen (!) werde. Und dass die Pro-Objektive auch mit 100MP-Sensoren zusammenarbeiten würden.

Wie immer muss man bei Japanern auf den Wortlaut achten. Er hat nicht etwa behauptet, dass die Objektive 100MP auflösen könnten, sondern dass die Objektive mit einem solchen Sensor „zusammenarbeiten“. Das ist ein kleiner Unterschied.

Generell ist es sowieso immer ein Problem, die Auflösung von Objektiven in Megapixel anzugeben. Denn erstens werden Auflösungen in Linienpaaren angegeben und zweitens ist ja die Auflösung im Zentrum weit höher als am Rand. Man kann aber so in etwa allgemein sagen, dass das alte 50-500 Bigma mit einem 20MP-Sensor überfordert ist, schlicht weil die höhere Auflösung über das ganze Bild gesehen nicht mehr Details bringt. Im Zentrum geht noch was, am Rand nicht.

Dann haben wir ein anderes „kleines“ Problem, das nennt sich Beugung. In einem Olympus-Forum habe ich jetzt sogar schon gelesen „Das spielt überhaupt keine Rolle, die Beugung hat mit der Auflösung des Sensors überhaupt nichts zu tun!“ Tja – schon ein bisschen. Die Beugung passiert zwar auch dann, wenn dahinter überhaupt kein Sensor ist. Nur ist es halt das Problem, dass der durch die Beugungsunschärfe erzeugte Fleck eine bestimmte Größe hat – und wenn der zweimal so groß wie der Pixelabstand ist, und das „Originalsignal“ nicht deutlich stärker, wird’s unscharf.

Um das Ganze mal genauer zu erklären: Beugung passiert IMMER. Bei jeder Blende. Solange aber die Objektivfehler größer sind als die Fehler durch Beugung, fällt die Beugung nicht auf, das Objektiv wird beim Abblenden schärfer, bis eben die Beugungsunschärfen stärker sind als die Unschärfen durch Objektivfehler. Es gibt also Objektive, die so gut sind, dass sie beim Abblenden nur schlechter werden. Das sind „beugungsbegrenzte Objektive“. Die Pro-Optiken von Olympus erreichen meistens etwa eine Blende abgeblendet ihre beste Leistung, dann schlägt die Beugung zu und sie werden wieder schlechter. (Kann sich jeder bei den entsprechenden Objektivtestseiten ankucken.) Das spielt keine Rolle, solange das Objektiv nicht an der Leistungsgrenze betrieben wird. Wird nun aber ein Objektiv mit einem Sensor versorgt, der höher auflöst, als das Objektiv, fällt die Beugungsunschärfe sofort auf, wenn man das Objektiv über die „ideale“ Blende hinaus abblendet.

Nun gibt es die Methode „Wir gleichen die Beugung digital aus“. Das macht Olympus seit einigen Jahren – das ist mir erstmals aufgefallen, als ich feststellte, dass das Bigma bei Blende 16 schärfer war als bei Blende 11. Bei den mFT-Objektiven haben sie den Übergang fließender gestaltet, so dass die Fanboys Beugung heutzutage nicht mehr als Problem im Auge haben.

Diese Beugung digital auszugleichen funktioniert aber nur in engen Grenzen. Irgendwann „zerfällt“ das Bild in Artefakte weil die Software mit den Schärfungsalgorithmen nur noch „rät“ und eben nichts mehr trifft. Das wissen die Leute bei OMDS, die sind ja nicht erst seit gestern im Geschäft. Ein 100MP-Sensor auf FT ist also ein Hirngespinst – niemand will das. Zumindest niemand, der ernsthaft eine Ahnung von der Sache hat.

Wir können noch über 24 oder von mir aus 33MP bei mFT reden, aber darüber machen die Objektive nur noch mit brutaler digitaler „Hexerei“ mit, was niemand, aber wirklich niemand braucht. Im Jahre 2007 (!) gab es eine Website „6Mpixel.org“, die ist mittlerweile Offline, aber über Archive.Org noch zu bewundern. Die haben damals aus sehr guten Gründen eine Pixelgröße von 3µm als Minimum angegeben. Das sind für den FT-Sensor 27MP. Ab dieser Pixelgröße wird das Bild nicht besser, sondern schlechter. Und zwar ganz unabhängig von der Optik oder der Wackelei oder sonstigen äußeren Bedingungen. Die Posts waren vom August 2007. Und wer denkt, dass sich die Physik seitdem geändert hat – Nope. Hier haben die Leute damals die Geschichte mit der Beugung sehr genau erklärt. Bei den augenblicklichen FT-Sensoren mit einer Pixelgröße von unter 4µm ist die Grenzblende 11. Bei 80MP sind wir bei Blende 5,6. Dazu kommt noch, dass bei hohen Pixelauflösungen die Schärfentiefe erheblich zurückgeht. Bei 80MP und Blende 5,6 ist selbst bei 7mm die HyFo bei zweieinhalb Metern. Bei 20MP und Blende 11 sind wir bei 0,6m – wir können also ein Bild machen, das von vorne bis hinten scharf ist. Bei 80MP geht das nicht mehr. Die Dateien sind nur viel größer – aber enthalten nur viel mehr Müll. (Denn wer bei geringer Schärfentiefe von Freistellung träumt – nada, die berühmte „Freistellung“ braucht lange Brennweiten, keine hohen Auflösungen.)

Das ist jetzt alles keine „Rocket Science“, sondern seit 140 Jahren bekannt. Wie kommt nun Murata-San auf die Story mit den100MP? Vorübergehender Blackout? Nein, so, wie ich ihn kennengelernt habe, neigt er nicht zu Spinnereien.

100MP auf FT ist Quark. Aber da gab’s doch mal einen Sensor von Sigma, den Foveon-Sensor. Der hatte drei Layer übereinander und Sigma behauptete kurzerhand, der Sensor habe dann eben die dreifache Auflösung. Der Foveon scheiterte an der aufwendigen RAW-Verarbeitung und eben dem Problem, dass die Sensorfertigung extrem gleichmäßige Substrate verwenden musste. Aus diesem Grund hat Sigma auch die für 2020 angekündigte L-Kamera mit Kleinbildfoveon erst mal gestoppt – der Sensorhersteller hat die Produktion nicht auf die Reihe bekommen.

Olympus hat aber schon vor Jahren einen Stacked Sensor mit herkömmlicher Bayer-Matrix vorgestellt, das war seinerzeit noch ein Labormuster, funktionierte aber schon ganz ordentlich. Der Hinweis von Murata-San auf die 100MP dürfte nun ein Wink mit dem 150-400 sein, dass da was kommt. Das Stacking hätte den großen Vorteil, dass man um die Beugung rumkommt, weil es sich eben darum handelt, vier Bilder a 25MP zusammenzurechnen. Und keines der Bilder hat Beugungsprobleme. Und die Objektive müssen auch keine absurden 100MP auflösen, sondern eben auch nur 25MP. Denn etwa ein 150-400 an 100MP müsste mit einem MC-20 400MP liefern – was selbst die größten Fanboys wohl nicht ernsthaft annehmen…

Wenn man sich nun einen vierschichtigen 25-MP-Sensor vorstellt, dessen Layer um etwa 1,5µ gegeneinander verschoben sind, hat man quasi einen One-Shot-Highres-Shot. Nur eben dass der Sensor auch jederzeit mit 25 MP betrieben werden kann – und dann mit irren fps, weil die effektive Bildrate dem vierfachen der Bildrate eines einzelnen Layers entspricht. Das Problem ist dann der Speicher, der die Bilder schnell genug vom Sensor transportieren können muss. Aber auch da gibt es bereits Technologien, bei denen der Speicher direkt an den Sensor gebaut wird.

Ein zusätzliches Feature eines solchen Sensors wäre eine erheblich gesteigerte AF-Performance, weil man quasi mit drei Layern Autofokus macht und mit einem Layer knipst. Dabei kann eine völlig neue AF-Logik verwendet werden, die ein bisschen an den alten C-AF der Nikon-DSLRs anknüpft, der während der Verstellung des Fokuselements bereits wieder die Bewegung des Motivs kontrollierte. Nur dass jetzt nicht ein AF- Sensor im Boden der Kamera beschäftigt ist, der während des Spiegelschlags blind ist, sondern drei hochauflösende Sensoren in der Bildebene, die im Zweifel dauernd in Betrieb sind.

Sandro Rymann hat eine Kamera für die nächste Zeit angekündigt. Hat die diesen „Wundersensor“ drin? Nein. Sicher nicht. Eher dürfte das „Wow“-Produkt mit diesem Sensor zu tun haben. Und das braucht noch.

12 Replies to “100MP auf FT”

  1. Ein klar begründetes Bekenntnis / Votum gegen den all zu oft geforderten „Pixelwahn“.
    Ob die sinnvolle obere Grenze nun bei 24MP, 26MP oder bei 30MP liegt (liegen wird), hängt auch von der
    Bauart (BSI!) der Sensoren ab. Der Wellencharakter des Lichtes wird sich nicht umgehen lassen.

  2. Ein sehr schöner, informativer Beitrag. Danke dafür! Das mit der Beugung in Zusammenhang mit den Pixelgrößen war mir bisher gar nicht bewusst. Aber eigentlich sehr logisch, wenn man nur zwei, drei Sekunden länger drüber nachdenkt. Weshalb sich die hyperfokale Distanz ändert, hab ich, glaub ich, aber noch nicht so ganz begriffen. Auch sehr interessant der Abriss zu den Stacked-Sensoren. Ich bin immer wieder verblüfft, was die Forscher und Ingenieure sich ausdenken, um der unumgänglichen Physik zumindest eine lange Nase zu drehen.

    Viele Grüße
    Thomas

    1. Je dichter die Pixel, desto geringer die Schärfentiefe. (Zumindest wenn man die Sache auf 100% ankuckt.) Und je geringer die Schärfentiefe, desto größer die HyFo. Ist eigentlich simpel, wenn man sich’s mal aufmalt.

    2. Die hyperfokale Distanz hängt vom zulässigen Streukreisdurchmesser, den man im Schärfetiefenrechner eingibt ab. Meist verwendet man die Werte für Papierbildbetrachtung aus der Analogzeit, weil von Sehfähigkeiten des Auge abgeleitet.
      Andererseits, dann braucht mah eh keine Megapixel jenseits der 12 (und die eigentlich auch nur wegen der Bayermatrix). Will man einen höheren Pixelcount in schärfere Bildern sehen, dann muss man auch den zulässigen Streukreisdurchmesser entsprechend verkleinern. Und ja, dann ist man irgendwann bei Bildern wo nur noch eine schmale Schärfenebe, die dafür aber Wahnsinnig scharf ist, aber das sieht man nur noch beim Pixelpeepen….

  3. Reinhard, und obwohl da vielleicht eine Wow-Kamera mit Stacked-Sensor kommt, hast Du vor, Dir das nächste Gerät zu kaufen, das diese Eigenschaften nicht haben wird?

  4. klare Worte zu Beugung, danke.
    Übrigens, deine Daumenregeln gelten für _kreisförmige_ Blenden wie sie vor 100 Jahren üblich waren. Heute übliche 5 und 7 Lamellen machen die Beugungsbegrenzung schlimmer, Stichwort ‚Blendenstern‘

  5. Schöner Artikel – vor allem die „Spekulationen“ in Richtung „WOW-Kamera“.
    Technisch durchaus machbar (ich bin Halbleiter-Ingenieur), wobei ich die Fertigungsprobleme nicht beurteilen kann. Sigma ist ja auch schon 3 Jahre dabei, Foveon endlich marktreif zu machen und kommt nicht vorwärts.

    Auf jeden Fall wäre ein mehrlagiger Sensor auf jeden Fall richtig WOW und würde die Sonys und Canons das Fürchten lehren.

    Leider bin ich nicht ganz so optimistisch. Wenn man – wie Reinhard Wagner schreibt – Aki Murata unterstellen darf, dass er seine Worte sehr sorgfältig wählt, lässt er – wenn man den gesamten Abschnitt des Interviews list – doch Vieles sehr in der Schwebe:

    Is there a practical limit to resolution in the 4/3 sensor format? At what stage do more pixels stop being useful?

    The Micro Four Thirds system is not limited to 20 Megapixels. Our Pro lenses have excellent resolution and performance, enough to work well even with a 100 Megapixel sensor. However, increasing number of megapixels significantly impacts processing speeds and high ISO image quality. There is also a risk of function and feature limitations. Therefore, we carefully consider the best balance of resolution, image quality, performance and price, always with the best interests of the customer in mind.

    1. Einen solchen Sensor kann nicht jede Fab herstellen. Das Problem sind noch gar nicht mal die mehreren Lagen, das Problem ist, wie Murata-San sagt, die Daten vom Sensor in entsprechender Geschwindigkeit runterzubringen. Dazu muss HighSpeed-Speicher direkt am Sensor montiert werden. Und die Firmen, die so etwas in Stückzahlen produzieren können, kann man an einer Hand abzählen und da bleiben noch Finger übrig. Aber wie Du sagst: es geht. Und wenn die Kamera auf dem Markt ist, könnte Sony – nebenbei ein High-Tech-Sensor-Hersteller – ein Problem kriegen. Mehr sage ich zu dem Thema lieber nicht mehr. – Und ja, logisch – ich habe völlig substanzlos dahergelabert. Nehmt nichts davon ernst. Alles Lüge………

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert