Frag Pat: E-M1II – Artefakte bei Gegenlicht

Wieder mal ein Frage, die ich nicht aus dem Handgelenk beantworten konnte und die etwas Forschungsarbeit benötigte.

Bei Gegenlicht liefert die Kamera ein sehr seltsames Muster. Ist da was kaputt? Als Beleg kam das Titelbild mit. In der 100%-Ansicht kam so etwas raus:

Staun. Ich verdächtigte zuerst eine Software, die hier Artefakte produzierte. Zu große JPG-Kompression, Rauschunterdrückung, irgendsowas. Also das gelieferte JPG gecheckt – das kam direkt aus der Kamera. Makernotes noch intakt, keine Rauschunterdrückung, JPG LSF. Ich bekam TIFFs. Da war das Muster noch deutlicher.

Ich bekam das RAW. Ich schickte das durch Workspace und bekam die gleichen Artefakte. Dann habe ich das RAW durch den Microsoft-RAW-Konverter von Windows bearbeiten lassen, der ja nichts beschönigt und auf einmal sah das so aus:

Ich habe hier, damit man es besser sieht, den Kontrast aufgerissen und auf 400% vergrößert. Es handelt sich hier um 16×16-Quadrate (wenn ich mich nicht verzählt habe) die auch bei verlustfreier TIFF- oder PNG-Entwicklung entstehen, es kann sich also nicht um 8×8 JPG-Blöcke handeln.

Wo kommt das her?

Nach Recherche in meinem Datenbestand habe ich festgestellt – dieses Muster liefert anscheinend nur die E-M1II. Schon bei der E-M1X, die den gleichen Sensor besitzt, ist das nicht mehr feststellbar. Auch die E-M1 hat das nicht. Und es tritt auf, je offener die Blende ist. Und vor allem, wenn man flächige LensFlares wie im Bild hat. In dem Fall war es das Sigma 56mm f/1,4 bei Offenblende. Ab Blende 4 wird der Effekt extrem selten und ab Blende 8 muss man wirklich suchen.

Was dürfte der Grund sein?

Ich spekuliere hier nur, weil ich es tatsächlich nicht weiß und ich auch keine Chance habe, da eine qualifizierte Aussage von Olympus zu bekommen. (Olympus Imaging existiert nicht mehr.)

Das Muster sieht nach der Pixelstruktur des Sensors aus. Der Sensor der E-M1II hat eine besondere Struktur, weil er eben auch Phasen-AF-Pixel hat. Da diese ja nicht simpel eine durchgehende Linie bilden können, sind sie in die Struktur des Bayer-Musters eingebunden. Regelmäßige Strukturen sind aber Gift, wenn es etwa um Moirée – Strukturen geht. Deshalb muss die Struktur des Sensors so gestaltet werden, dass eben solche gleichmäßigen Strukturen im Endbild nicht auftreten.

Ja, aber das ist doch offensichtlich schief gegangen?

Dann ist die Frage, warum bei der E-M1II und anscheinend nicht bei der E-M1X, die eigentlich den gleichen Sensor hat?

Als die E-M1X auf den Markt kam, ist mir erklärt worden – damals hat man mir noch was erklärt – dass das zwar der alte Sensor sei, aber durch eine neue Beschichtung wäre die Bildqualität deutlich besser geworden. Ich habe das seinerzeit getestet und der Unterschied war mehr so im “Gefühlt”-Bereich. Ich habe das unter “Marketingsprech” abgehakt.

Hier haben wir aber den Punkt. Anscheinend sorgt der weiche Flare im Filterpaket vor dem Sensor für eine Lichtbedingung, die ein Abbild des Sensors auf dem Filterpaket produziert. Man erkennt die einzelnen RGBG- Gruppen, weil diese natürlich im Lila unterschiedlich reflektieren. Nach eigenen Tests mit einem 42,5mm Voigtländer hat sich herausgestellt: Auch bei der E-M1X treten diese Muster noch auf, allerdings nicht mehr so deutlich. Die E-M1 hat dieses Muster gar nicht, die OM-1 auch nicht. Wie es bei der OM-5 aussieht, kann ich nicht testen, da ich die Kamera nicht da habe.

Es ist also wohl ein Problem des Sensors der E-M1II/III/X in Verbindung mit dem jeweiligen Coating und dem Filterpaket.

Abhilfe: Nicht Offenblende genau gegen die Sonne fotografieren. Oder/Und Objektive benutzen, die keine großflächigen Flares erzeugen.

11 Replies to “Frag Pat: E-M1II – Artefakte bei Gegenlicht”

  1. Hallo Reinhard, bei meiner EM 1 II ist mir das noch nicht aufgefallen, aber vermutlich hatte ich nicht in der Situation Aufnahmen gemacht, bei denen dieser “Fehler” auftritt. Trotzdem: Danke für Deine Arbeit, die Ursache dieses Problem herauszufinden und für den “Tipp” wie man das Auftreten dieses “Fehlers” vermeiden/verringern kann.
    Lutz L.

  2. Hm, interessant! Die Pixelstruktur des Sensors (incl. AF Pixel) kann man meiner Meinung nach nicht durch den Sensor selbst abbilden, sondern nur durch ein anderes Aufnahmegerät.

      1. Eine Erklärung kann ich leider auch nicht liefern. Was ich meinte: Wenn die AF-Pixel nicht zum Bild beitragen (oder tun sie das?), dann dürften sie im vom Sensor erzeugten Bild nicht zu sehen sein.

        Ich habe mir deinen Text nochmals durchgelesen und ihn vielleicht erst jetzt ganz verstanden was du meinst. Wenn es um die Abbildung der am Filterpaket reflektierten Sensoroberfläche geht, dann könnte das mit dem Sensor funktionieren. Dann ist die Abbildung aber bemerkenswert scharf.

        Violettes Licht ist ja recht kurzwellig. Vielleicht “passt” die gerade zu einer Schichtdicke des Filterpakets und dem ebenfalls “passenden” Einfallswinkel des Lichts so dass die Sensoroberfläche an einer Schichtgrenze reflektiert wird. Ist aber alles auch nur Spekulation. Da weiß ich zu wenig über Aufbau von Sensor und vorgelagerten Filtern.
        Ein Indiz wäre, wenn man die Pixelgröße des Sensors in der Struktur finden würde.

        1. Genau auf diese Schlussfolgerung bin ich eben auch gekommen. Und ja, das Ganze ist tatsächlich in Pixelgröße. Deshalb ist es so scharf. Wenn der Abstand größer wäre, würde es verwaschen sein. Aber es ist eben – wie auch bei Dir – blanke Theorie, weil ich es eben nicht sicher weiß. Deshalb bin ich wirklich auf jede Erklärung gespannt, wenn es jemand wirklich besser weiß.

          1. “Und ja, das Ganze ist tatsächlich in Pixelgröße.”

            Bedeutet das etwa, dass dieses Phänomen nur bei voller Auflösung auftritt?
            Also z.B. Fotoauflösung = 20 MP bei einer Sensorauflösung = 20 MP?
            Verschwindet dieses Phänomen, wenn die Fotoauflösung < Sensorauflösung ist?

            P.S.:
            Im Artikel steht geschrieben, dass der Bildsensor eine RGBR-Struktur hat.
            Ist es ein Tippfehler oder wofür steht das zweite "R"?

            1. Das Phänomen tritt auf. Man kann den Sensor nicht “runterschalten”. Die RAWs sind immer gleich. Wenn man das Bild runterskaliert, sind die Strukturen immer noch sichtbar, halt nicht so scharf.
              Und ja, Tippfehler. Es soll heißen RGBG.
              Ich hab’s korrigiert.

  3. Danke für die Erklärung. Ich kann mich daran erinnern, dass über diese violetten Artefakte bereits 2017 in den Foren diskutiert wurde. Ich selber konnte diese auch mit/aus meiner E-M1 Mark II provozieren.

      1. Danke für die Nachhilfe. Blöderweise ist der Typ bei Fuji völlig auf dem falschen Dampfer und im Thread im oly-forum kriegt man fünf Meinungen dazu. Eine Spiegelung auf der Rücklinse kommt nicht in Frage – das wäre viel, viel unschärfer. Wer schon mal Dreck auf der Hinterlinse hatte, weiß das. Die Purple Flares sind eine Eigenschaft einiger Objektive – und auch das hat nichts mit irgendwelchen Rückspiegelungen vom Sensor zu tun. (Ich habe jetzt mittlerweile doch einige mFT-Objektive getestet – und die wenigsten sind so anfällig für lila Flares.)

        Ich habe die Theorie, dass es hier um nahes UV geht, das gerade noch so in voller Stärke durch das Filterpaket durchgeht, aber auf der Rückseite des Filterpakets gespiegelt wird. Der Grund, warum diese lila Flares bei manchen Objektiven überhaupt entstehen, dürfte ein Problem mit der Vergütung der Linsen und dem Schwarz des Gehäuses im Inneren des Objektivs sein. Es tritt im Wesentlichen bei lichtstarken Objektiven auf. Da ist viel Licht im Gehäuse und das beleuchtet dann eben auch Dinge, die nicht lichttot sind, sondern halt reflektieren. Bei moderneren Objektiven sehe ich diese Flares nicht mehr.

        Warum hat nun die OM-1 das Problem nicht mehr: meiner Meinung nach haben die simpel ein anderes Glas vor den Sensor geklatscht, das auf der Rückseite vielleicht ne Anti-Reflex-Beschichtung hat.

        Im Oly-Forum war man der Meinung, das sei ein Softwareproblem. Nö.

  4. Schau mal hier für die E-M5 III und damit auch OM-5. Der Abschnitt PDAF Artifacts ist relevant.
    https://m.dpreview.com/reviews/olympus-om-d-e-m5-iii-review/4
    Du könntest die Optik vom Bajonett abnehmen, sehr schräg mit einer LED auf den Sensor leuchten und per LiveView in 100 % Ansicht in der Nähe der der LED gegenüber liegenden Ecke suchen. Sofern da noch PhasenAF Punjte sind.

    Bei der E-M1 sehr ich das PDAF Muster im LiveView dann auch, aber es wird in der Vergrößerung sowie im aufgenommenen Bild heraus gerechnet.

    Die Optik auf dem Sensor ist nunmal nur für einen bestimmten Akzeptanzwinkel von Licht ausgelegt. Vielleicht plus minus 30°.
    Die E-M1 II hat einen 20 MP Sensor mit 20 Millionen Photodioden und 20 Mio Mikrolinsen. Um den PhasenAF zu bauen, muss man einige der Photodioden zur Hälfte abmaskieren, so dass sie nur Licht von links oder rechts bzw oben oder unten empfangen. Wenn man schräg drauf leuchtet, sieht man diese Unregelmäßigkeit im Sensor.

    Die OM-1 und OM-3 haben einen 20 Megapixel Sensor mit 80 Mio Photodioden und 20 Mio Mikrolinsen. Dort erfolgt diese Maskierung elektrisch, indem man je Mikrolinse vier Helligkeitswerte auslesen kann (im AF Betrieb). Für das Foto werden 4×4 Pixel zusammengeführt. Es gibt keine physikalische Ablendmaske aus einer undurchsichtigen Schicht mehr, die man bei schräger Beleuchtung sehen könnte. Alle Pixel sind gleich und damit ist auch ein Störlichtfleck homogen und unstrukturiert.

Leave a Reply to RaniT Cancel reply

Your email address will not be published. Required fields are marked *