Die meisten Innovationen vom Olympus in den letzten Jahren dienten dazu, dass die Belichtungszeiten länger werden können. LiveComposite. Auf einmal konnte man ne Stunde belichten, ohne dass das Bild überbelichtet wurde. LiveND. LiveBulb, LiveTime. Der irre Stabi, mit dem mehrere Sekunden lange Belichtungszeiten aus der Hand möglich wurden.
Das neue Spielzeug, der LiveGND, fällt da gar nicht drunter, weil der die Belichtungszeit nicht verlängert. Bei allen anderen Funktionen hat man nur was davon, wenn sich vor der Kamera was bewegt, dessen Bewegung man zeigen will. Bei LiveGND sollte sich tunlichst nichts bewegen. Sonst sieht das seltsam aus.
Auch der HighRes-Shot verlängert zwar die Belichtungszeit, aber nur als „Dreck-Effekt“. Denn am besten ist der bei statischen Motiven.
Der HighRes-Shot ist ja eigentlich nur ein Zugeständnis an die Kleinbildfraktion, die mit viel Megapixeln aufwarten können. Kreativ ändert er so gut wie nichts. Der Grauverlauf hat dagegen durchaus Potenzial:
Lindesnes Fyr, einmal mit und einmal ohne Grauverlaufsfilter. Hier handelt es sich aber nicht um den LiveGND, sondern um eine analoge Cokin-Scheibe mit Helges Filterhalter vor der 7-14 Kristallkugel. Und im Gegensatz zum LiveGND kann ich hier auch vorbeiflatternde Vögel mit draufnehmen. (In diesem Fall nicht, weil es so gewindet hat, dass die Vögel gerade zu Fuß gegangen sind. ) Kann man aber doch alles in der Post machen? Wenn die RAWs das hergeben würden?
Ist halt wieder Arbeit.
Die Frage ist – gibt es noch eine Anwendung, bei der Verlängerung der Belichtungszeit signifkante, neue kreative Möglichkeiten schafft? Wir sind schon bei 1/32000s – da kann man alles einfrieren und eine weitere Verkürzung der Belichtungszeit ist eher kaum noch sinnvoll. Welchen Parameter kann man in Zukunft ändern? Vielleicht die Blende? Oder eine simulierte Unschärfe für den Hintergrund? Das wäre simpel: ein Bild stark defokussieren und dann die scharfen Teile aus dem vorherigen scharfen Bild drübermontieren. So ne Art Ultra-Stacking…..
Auf simulierte Unschärfe für den Hintergrund warte ich schon, seitdem das erste iPhone das halbwegs konnte. Für eine Kamera mit großem Sensor (gegenüber den Smartphones) muss es doch möglich sein, einen schon leicht unscharfen Hintergrund proportional noch unschärfer zu rechnen. Man muss es ja nicht übertreiben, aber wenn man die MFT-typische Unschärfe 1-2 Blenden in Richtung der äquivalenten KB-Unschärfe schieben könnte, fände ich das super. Und die Freistelldiskussion würde das wohl auch endlich beenden, oder?
Ich habe schon Fotos aus Smartphone gesehen, mit einer Hintergrundunschärfe bei Ultraweitwinkel, das selbst mit Kleinbild auf “konventionelle” Weise unmöglich zu machen ist. Ich meine das geht mittlerweile sogar bei Videoaufnahmen.
Bei Smartphones, die den Bildhintergrund einfach unscharf rechnen gibt es häufig das Problem, dass alles gleich unscharf ist, egal wie weit es weg ist.
Polarisationsfilter gegen nichtmetallische Spiegelungen und Graufilter zum Reduzieren der Lichtmenge beim Filmen. Das sind für mich noch die nervigsten Verrenkungen, besonders wenn man unvorbereitet ist oder es mal schnell gehen muss.
Für beide Fälle sehe ich derzeit keine technischen Lösungen in Reichweite, die hier ein vereinfachtes Handling durch Computational Photography bringen.
Zumindest beim unvorhergesehenen Filmen im grellen Licht rettet dich dann das iPhone. Auch wenn es einen ärgert, warum diese vorhandene Möglichkeit nicht nutzen?
Ansonsten ist das ganze Thema für mich eher „nice to have“. Die meist genutzte Funktion ist die Keystone Korrektur und die Live-Kontrolle von Langzeitbelichtungen. Live Composite habe ich bisher nur gemacht um halt mal Live Composite gemacht zu haben. Aber aus einer echten „Situation“ heraus eigentlich nicht. Live-ND? Gerade beim Wasser mag ich es frisch, perlig, spritzig. Aber das ist halt Geschmacksache. Aus meiner Sicht wird das nun zu oft eingesetzt, weil es die Kamera gerade anbietet.
Focus Stacking war für mich eine echte Offenbarung, möchte ich nicht mehr missen. Wie lange mein letztes HighRes oder HDR zurückliegt? Ich finde es gewagt sich bei der Entwicklung neuer Gehäuse auf Computational Photography konzentrieren zu wollen. Ich halte das Thema für nahezu ausgereizt oder da kommt dann was in einer ganz anderen Richtung. Auf der anderen Seite gibt der Hype in den Foren um Live ND und GND dem Hersteller wohl recht, wenn dafür sogar eine 1-2 Jahre alte Kamera durch das Nachfolgemodell ersetzt wird.