These, on the other hand, are not birds:
This is an uninteresting bird that you don’t need to focus on:
10 pictures, in two seconds, always the bird clean in the centre, always the white frame around it – all equally blurred.
This is a bird that you can’t focus on:
The subject recognition recognises a bird, makes a frame and focuses on the branches. Switch off scene recognition, small AF point. Works. As you can see.
And this is an interesting bird that is also in focus:
However, this does not last long:
This is the next picture in the series. Same second of the shot, nothing changed, except that the AF has gone completely into the woods.
The day before yesterday I tested the subject AF of the OM1II in direct comparison with the OM-1. The subject AF of the OM-1II is actually better. When the bird is sitting still and there are lots of vegetables around it, the OM-1II’s AF pumped less. Terrific.
Here I actually have 25 out of 26 images in focus. With the O-M1, same subject, 19 out of 22 pictures were in focus. The only difference is that with the OM-1II I had to set the AF point on the coot, and with the OM-1 I deliberately set the AF point at the other end of the picture.
Otherwise, the C-AF is still grotesquely superior to subject recognition. A possible firmware update for the OM-1 – if it ever comes – will probably only marginally improve the subject-detection AF. Unfortunately, there is one major difference: with the OM-1, the camera also focuses on a recognised subject outside the focus field. With the OM-1II, the focus field must be above the recognised subject. Otherwise it will not focus. This does not mean that the camera will also focus on the subject, this often does not happen, but if the focus field is not above the subject, the camera is guaranteed not to focus.
I have also tried it with cars and people. Same – bad – result.
With S-AF, the successful Panasonic concept has now been adopted. You defocus and refocus after each shutter release. This gives the subject the chance to move, so that the lens then moves into the forest due to lack of focus – in other words, it defocusses completely. It’s an absolute hoot for wildlife. It’s also great fun on stage, in the studio and at weddings.
And yes, you can take sharp pictures with the OM-1II. I’m not denying that at all. You can. If you switch off the scene recognition, it works better. But it also works with scene recognition. And if you’re lucky and it works, then it’s great when the flying bird’s eye is sharp as a tack. It’s just not that common, unless the critters are sitting and not moving. And they are alone. Because with two or more birds, you never know which one the camera will recognise as a bird – and which one it won’t.
I’m not sure whether this is a great improvement in autofocus. Obviously the marketing man told the developers “Hey, Panasonic has really great reviews for the AF. Build it into the OM-1.” The developers said “The Panasonic AF is rubbish”. The marketing man responded: “Never mind, the customers haven’t noticed, so build it into ours.” The developers: “Hold my beer.”.
I’m sitting in front of the camera right now and can’t stop shaking my head. I feel sorry for everyone who sold their OM-1 for a joke price and bought this thing. And put another thousand and a half on the table for it.
I’m seriously doubting whether a firmware update for the OM-1 would be a good idea. I definitely don’t want the AF of the OM-1II on my OM-1.
Danke für Deinen interessanten Bericht. Könnte das ein Argument sein, weshalb das FW-update für den Herbst angekündigt ist – und auch die MK2 da möglicherweise mitbedient werden könnte?
Nein, der AF gehört so. Das ist jetzt das neue Normal.
Ich habe mittlerweile rund 20h Vogel fotografiert mit der OM1.2 und könnte nicht mehr widersprechen.
Die Bedienung hat sich zum positiven geändert. Das AF Feld muss während der Erkennung auf dem Vogel liege damit diese greift oder man muss einmal per “Lock”-Taste der Kamera sagen das sie bitte den erkannten Vogel fokussieren soll.
Alternativ einfach ein riesiges AF Feld, wie es viele Fotografen die ich kenne früher schon gemacht haben.
Für mich persönlich hat sich die Bedienung so sehr verbessert, das ich von BBF wieder umgeschwenkt bin und wieder über den Auslöser fokussiere.
Die Objekterkennung ist spürbar, schneller und präziser als bei der OM1.1 wäre für mich aber dennoch kein alleiniger Grund die Kamera auszutauschen. Die OM1.1 ist für Vögel immer noch hervorragend.
„Die Objekterkennung ist spürbar, schneller und präziser als bei der OM1.1 …… Die OM1.1 ist für Vögel immer noch hervorragend.“
Trotzdem sorgen Vogelerkennung und AF bei meiner OM-1.1 manchmal für überraschende Ergebnisse, die ich mir nicht erklären kann.
Es gab immer wieder Situationen, in denen ich davon ausgegangen war, dass die Bilder eigentlich nichts werden können, weil ich bei einem auffliegenden Vogel vor einem sehr unruhigen Hintergrund die Kamera nur hochgerissen und wild mitgezogen habe. Trotzdem haben Motiverkennung und AF für sehr viele scharfe Bilder gesorgt. Habe ich dann aber mit identischen Einstellungen versucht, einen ruhig auf dem Wasser schwimmenden Vogel ohne jegliche Störungen im Hintergrund zu fotografieren, gab es teilweise ganze Serien leicht unscharfer Bilder.
Als Konsequenz nutze ich die Vogelerkennung nur noch dann, wenn ich es für unvermeidlich halte und fotografiere Tiere jetzt überwiegend wieder nur noch mit S-AF und C-AF mit deutlich besseren Trefferquoten.
Dabei halte ich die Vogelerkennung als solche eigentlich für sehr gut, es gibt fast immer sehr schnell den Rahmen um das ganze Tier oder sogar um ein Auge. Das Problem ist nur, dass das den AF zu oft nicht wirklich interessiert und er sich andere Ziele sucht. Gerade da erhoffe ich eine deutliche Verbesserung der Kommunikation zwischen Vogelerkennung und AF.
Und genau das ist das Problem. Wenn man beim “Hochreißen und wild mitziehen” jetzt scharfe Fotos haben will, muss man auf “Alle Felder” stellen. Mit dem Problem, dass man halt etwa bei einem Vogelschwarm manchmal die Vögel vorne dran hat und manchmal welche mittendrin oder ganz hinten. Der weiße Rahmen hüpft da lustig hin und her.
Zu der Dame mit den Rollschuhen: Die wurde zuverlässig als Vogel identifiziert und etwa 20% der Bilder waren auch scharf – was gruselig schlecht ist, weil sich die Dame ja kontinuierlich mit relativ geringer Geschwindigkeit bewegt hat. Der Dame ist ein Kollege entgegengekommen. Kein Vogel, weil blaue Jacke angehabt. Von hinten war es dann ein Vogel, weil er einen schwarzen Rucksack aufhatte. Solange er kein Vogel war, lag die Quote der knackscharfen Bilder bei 50% und der Rest war zumindest brauchbar. (bisschen Backfokus) Sobald die Motiverkennung zuschlägt sinkt die Fokusquote auf 9 von 25. (von denen nur die Hälfte wirklich knackscharf sind.)
>>> Das AF Feld muss während der Erkennung auf dem Vogel liege damit diese greift … <<<
Entweder ich stehe auf dem Schlauch oder ich habe eine vollkommen andere Vorstellung von Motiverkennung. Wenn ich das AF-Feld auf dem Vogel (Motiv) halten kann, dann brauche ich ja eigentlich die Motiverkennung nicht.
Wenn ich hingegen die Kamera fixiere, um den Bildausschnitt nicht zu ändern, könnte es schwierig werden das AF-Feld überhaupt auf den Vogel zu bekommen.
Die von Dir beschriebene Methode erinnert mich eher an CAF-TR, nur halt mit Motiverkennung, statt C-AF-Sperre. Das wäre sicher eine deutliche Verbesserung – keine Frage.
Was ich von einer Motiverkennung erwarte ist eigentlich, dass ich mir über die weiteren Einstellung möglichst keinen Kopf mehr machen muss. Erkennung über den gesamten Bereich der vorhandenen AF-Felder, bei mehreren Objekten eine automatische Auswahl auf das am nähesten befindliche Objekt – wenn keine Auswahl durch den User erfolgt.
Das funktioniert in der E-M1X bisher auch ganz akzeptabel, wenn auch nicht schnell. Bei den OM-1 habe ich immer das Gefühl, dass sich der Fotograf in Sicherheit wiegt, sein Motiv feiert und zuhause am PC ein Fiasko erlebt.
Im Prinzip ist es ja nicht verkehrt, wenn die OM-1, im Gegensatz zur E-M1X, erstmal die Aufnahmen macht. Da besteht ja dann doch noch die Chance eines Zufallstreffers. Allerdings erlebe ich bei meinen Kumpels, und auch selbst wenn ich das Ding mal benutze, solche "Erfolgsquoten" wie sie Reinhard beschreibt. Das mag bei hobbymäßigem BIF ja noch ganz spannend sein, wenn Du aber Fashion machst und das Model dann zig mal den gleichen Krampf wiederholen muß bzw Du erst am PC prüfen kannst, ob der Fokus auch sitzt? Oder wenn die Situation gar nicht beliebig wiederholt werden kann? Eine Motiverkennung die Dir nur etwas vorgaukelt ist zwar werbewirksam, führt aber in der Anwendung dann eher zur Frustration. Langsamer und sicherer wäre aus meiner Sicht mehr.
Motiv erkannt und im Sucher fixiert, aber dann im Zusammenspiel mit der Fokussierung des Objektivs trotzdem daneben? Keine Methode ist perfekt und es ist sicher eine enorme Leistung die da von Elektonik und Mechanik erbracht werden muß, um unsere Erwartungen zu erfüllen. Nur bei solchen Fehlerquoten macht es keinen Sinn als Anwender die Kontrolle an die Kamera abzugeben. Es sei denn man hat eine Situation, wo man ohne Motiverkennung sebst nichts zusammen bringt. Aber wenn die konventionellen Methoden noch so deutlich überlegen sind, hilft wohl nur abschalten, in Situationen wo das möglich ist.
„>>> Das AF Feld muss während der Erkennung auf dem Vogel liege damit diese greift … <<<
Entweder ich stehe auf dem Schlauch oder ich habe eine vollkommen andere Vorstellung von Motiverkennung. Wenn ich das AF-Feld auf dem Vogel (Motiv) halten kann, dann brauche ich ja eigentlich die Motiverkennung nicht.“
Die Auswahl des AF-Feldmodus scheint bei der MArk II jetzt eine wesentliche Rolle zu spielen.
Vor etwa einer Woche hatte ich die Mark II kurz in der Hand und habe es auf die Schnelle ausprobiert, weil im Werksforum schon entsprechende Diskussionen liefen.
Das AF-Feld „Single“ habe ich in die linke Bildhälfte gelegt, in der rechten Bildhälfte befand sich das Foto einer Person. Die Motiverkennung legte sofort einen grauen Rahmen um das Gesicht, fokussiert wurde aber auf den „Single“-Punkt links.
Dann habe ich die Kamera langsam nach rechts geschwenkt. Sobald der AF-Punkt den Rand des Gesichts berührte, erschien der doppelte weiße Rahmen um das Gesicht, zusätzlich ein weiterer Rahmen um ein Auge. Dann wurde dort fokussiert. Wenn sich der AF-Punkt nur leicht wieder entfernte, gab wieder nur den einfachen grauen Rahmen um das Gesicht.
Mit dem AF-Feldmodus „Alle“ wurde immer das Gesicht ausgewählt und auch darauf fokussiert.
Es scheint also, dass man beim AF-Feldmodus entweder „Alle“ oder mindestens „Large“ auswählen muss, um ein Fokussieren neben ein Gesicht trotz Motiverkennung zu vermeiden, oder man muss bei Verwendung nur weniger Fokusfelder mit der neuen „Lock“-Funktion arbeiten, was ich auf die Schnelle nicht ausprobieren konnte.
Auch bei der Funktion mit den beiden Knöpfen muss der AF-Punkt anfangs auf dem Motiv liegen. Man muss mit dem einen Knopf den AF-Punkt auf das Motiv legen, das erkannt wurde, damit ist das Motiv “gelockt”. Dann kann man, so man die Kamera entsprechend konfiguriert hat, den AF-Punkt vergessen und die Kamera verfolgt das Motiv auch außerhalb des AF-Bereiches, solange es als Motiv erkannt wird. (Eine kleine, aber wesentliche Einschränkung.)
In der Theorie ist das zwar ein bisschen Fingerakrobatik, aber ansonsten prima. In der Realität funktioniert das mit sich langsam bewegenden Motiven. Und wenn einem – siehe oben – 20% scharfe Bilder reichen. Falls nicht, ist ein C-AF oder S-AF schneller und weit exakter. Bei unbeweglichen Motiven sowieso.
Das AF Feld muss nicht Anfangs auf dem Objekt liegen für den Lock. Es reicht ein Tastendruck auf die konfigurierte Lock-Taste (bei mir AF-On) und der AF Klebt auf dem gelockten Vogel. Egal ob außerhalb oder innerhalb des AF Feldes. Solange die Erkennung aktiviert ist werden alle Vögel erkannt und mit einer grauen Box versehen. Berührt der Vogel jetzt das AF Feld wird dieser fokussiert. Ist der Vogel außerhalb des AF Feldes wird die Box weiß und der Vogel wird fokussiert und getrackt. Den getrackten Vogel kann man auswählen/wechseln.
“Alle Vögel erkannt” – Sorry, das klingt danach, als würde er alle Vögel erkennen. Nein. Tut er nicht. Er hat schon Probleme, zwei Vögel zu erkennen. Mehr als vier Rahmen habe ich auch bei einem ganzen Schwarm nicht gehabt. Und die haben dauernd den Vogel gewechselt. “Den getrackten Vogel kann man auswählen”. Innerhalb der zwei Sekunden, in denen der Schwarm über mich hinwegzieht? Joke, oder? “Das AF Feld muss nicht Anfangs auf dem Objekt liegen für den Lock” Ja, bei C-AF. Und wenn die Motiverkennung das Motiv nicht verliert- was dauernd passiert. Und selbst wenn die Kamera das Motiv behält, sind die meisten Fotos leider unscharf….
Bestätigen auch meine Erfahrungen mit der OM1.1 Das war für mich der Grund mit Back Button Focus zu arbeiten.
Reinhard
Siehe “Ansonsten ist der C-AF der Motiverkennung nach wie vor grotesk überlegen. Ein eventuelles Firmwareupdate …..”
Du meinst ev. “Ansonsten ist der C-AF/TR ….” ?
Gruss
Georg
Über C-AF mit TR habe ich nichts geschrieben. Das lohnt sich nicht. Der trackt irgendwas, solange er will und dann wechselt er das Motiv. Wenn er will. Nicht wenn ich will.
Also wenn ich das richtig verstehe ist das immer noch nix mit mit “wenn Motiverkennung dann automatisch AF auf Auge-Kopf-Motiv/Körper und Af-Update (Tracking) falls AF-C, egal wo das AF-Feld steht ?”
Das hat man mir anders erklärt oder angenommen “wenn Motiv dann nur mit alle Felder”.
Dann hat sich für mich (!) nix verbessert, wenn ich Motiverkennung verwende erwarte ich das so, ohne Einstellungsorgien 🙂
Danke und Grüße
tom
Doch genauso du musst nur einmalig eine Taste zusätzlich drücken damit die Kamera auch weiß das sie auf das erkannte Objekt fokussieren soll und nicht aufs AF Feld.
Das würde funktionieren, wenn die Kamera ein bewegtes Objekt tatsächlich sauber verfolgen könnte. Kann sie aber nicht. Und sobald sie es einmal verloren hat, ist auch der “Lock” weg. Auch wenn die Kamera das Objekt dann wieder erkennt.
Moin, moin
erstmal vielen Dank für denTest.
Ich bin bisher mit dem AF-C ganz zufrieden und nutze die Motiverkennung nicht da sie nicht meinem erwarteten Verhalten entspricht.
Von einer Motiverkennung erwarte ich folgendes :
Wenn Motiverkennung an : Markiere Motiv – AF auf Auge – Kopf – Motiv (Körper) – bei mehreren Motiven Auswahl möglich , dann erneuter AF. Dabei muss es egal sein, wo mein AF-Feld (i.d.R. Kreuz, nicht alle) gerade steht (im Motiv oder auerßhalb) oder das Verhaltten muss zumindest konfigurierbar sein (Prio Feld oder Prio Motiv). Bei AF-C : Verfolge ausgewähltes Motiv / AF-Punkt.
Laut einer Vorführung ist das auch so ?
Kannst Du/Ihr das bestätigen oder verneinen ?
Vielen Dank
Grüße
Tom
Kann das jemand bestätigen
Der C-AF arbeitet wie ein C-AF arbeiten soll. Ich habe noch keine exakten Vergleichstests gemacht, ob auch der C-AF schlechter geworden ist, oder ob der besser wurde – da sage ich noch nichts dazu.
Also ich bin mit der OM-1 mit der Vogelerkennung sehr zufrieden. Egal ob pickend in der Wiese, in Ästen sitzend oder fliegend. Die Vögel werden eigentlich immer erkannt und vor allem (meist) auf den Kopf fokussiert. Ob das am 150-400 liegt – keine Ahnung.
Nein, es funktioniert bei mir auch mit dem 300/4 und dem 40-150/2.8. Mit dem 100-400 ist die Ausbeute deutlich schlechter.
Ich hatte im Januar die Möglichkeit, mal die „Ausbeute“ mit Canon, Nikon und Sony Fotografen zu vergleichen und hatte ebenso viele Treffer, allerdings bei 25 bzw 50 FPS, die es oft gar nicht gebraucht hätte.
Die Om1 ist nicht perfekt aber Motiverkennung funktioniert bei mir bei vielen Vogel und Säugetier Motiven hervorragend. Und bei anderen gar nicht. Ist kein Wunder, eine KI kann nur das erkennen, worauf sie trainiert ist. Die Konsequenz ist: Motiverkennung probieren, wenn es gut funktioniert, mit passend großem Fokusfeld verwenden, wenn nicht dann halt deaktivieren oder eine K9mpromisslösung suchen. Wie im echten Leben auch.
Meiner Meinung nach ist das auch eine Frage des Herangehens, sprich lerne ich ein Werkzeug gut kennen und verwende es so, wie es für meine Motive am besten funktioniert oder suche ich permanent das Haar in der Suppe, sprich konzentriere mich nur auf das was nicht gut funktioniert, weil sich Kritik immer besser verkauft als Zufriedenheit.
Tja – und genau hier ist der Hersteller gefragt: Mit welchen Objektiven funktioniert was? Bei welchen Motiven? Wenn ich genau eine Chance auf einen Nachtreiher habe -nehme ich dann die Motiverkennung oder nicht? Wenn das 100-400 nicht funktioniert, ist das dann ein verdeckter Mangel? Der Kamera oder des Objektivs? Es geht hier nicht um Zeug, das man für 17 Euro bei Wish bestellt und dann in den Müll schmeißt, wenn es nicht tut, was es soll. Es geht hier um Ware, die viele tausend Euro kostet.
Und: Du irrst Dich ganz erheblich: Influencer werden hervorragend bezahlt. Kritiker kriegen Schwierigkeiten. Wenn ich das alles hochjubeln würde, hätte ich weit mehr davon. Erinnerst Du Dich an unseren Crash vor sieben Jahren? Da warst Du auf Seiten der Kritiker und ich auf der Seite der “Zufriedenen”. Was hättest Du da gesagt, wenn ich Dir gesagt hätte, Dein AF-Problem solltest Du damit lösen, dass Du ein neues Objektiv für 7500 Euro kaufen musst? Und natürlich eine neue Kamera für 2500 Euro. Stattdessen hat Olympus seinerzeit den kleinen AF-Punkt per Firmware nachgeliefert.
Ach ja: Du sprichst von der OM-1. Hier geht es um die OM-1II.
Ich hatte ja auf OhWehs Post geantwortet und der schrieb von seiner OM1 I und fragte, ob seine in seinen Augen guten Trefferquoten auch am 150-400 liegen könnten. Ich habe ähnliche Erfahrungen, deshalb habe ich das bestätigt.
Ich habe aber nicht geschrieben, dass es mit dem 100-400 NICHT funktioniert, sondern dass ich weniger Treffer als mit dem 40-150 oder 300/4 habe.
Es gibt ja auch Aussagen anderer User dass C-AF um so treffsicherer ist, je weiter Offen die Blende ist.
Vom 150-400 würde ich mir nicht nur von der Bildqualität, vom Bokeh und vom Handling wesentlich mehr erwarten als vom 100-400 sondern eben auch mehr Schnelligkeit und Genauigkeit des AF. Es kostet ja auch um einiges mehr.
Wenn man die Kosten für 400mm in Relation zur Treffermenge setzt, schneidet das 100-400 eigentlich ganz OK ab 😉
Besser geht natürlich immer.
Was unseren Zusammenstoß angeht: Da hab ich auch dran gedacht.
Für mich war halt damals die EM-1 II für meine Art zu fotografieren tatsächlich weniger gut brauchbar als der Vorgänger (die EM 1). Nicht unbrauchbar aber weniger gut, weil ich deutlich mehr Ausschuss erzeugt habe. Egal ob ich auf meine Art fokussiert habe oder mit den vielen verschiedenen Varianten, die mir selbst eingefallen waren und von anderen vorgeschlagen wurden.
Das kann ich jetzt für mich von der OM1 I nicht sagen, die ist so wie ich sie verwende, meiner E-M1 III, die ich ja auch noch habe, vom AF her bei all meinen Motiven deutlich überlegen. Vom Sensor her sowieso.
Damals ging es darum, die Neue mit einem FW Update auf das bekannte Niveau der Alten zu bringen. Ich war da ja mit meinem Wunsch auch nicht ganz alleine.
Von Olympus hieß es ja erst auch, die Größe des kleinsten Fokusfelds könne man nicht ändern und dann ging es plötzlich doch und der AF-Punkt kam zurück.
Heute geht es aber darum die Alte auf das (noch gar nicht wirklich bekannte) Niveau der Neuen zu bringen.
Wenn es ein FW Update mit tollen neuen Features und Verbesserung bestehender Funktionen für die OM1 I geben sollte, freue ich mich natürlich drüber. Ob da jetzt die Menschenerkennungs KI drinnen werkelt oder es bei der alten Gesichtserkennung bleib, ist mir persönlich egal.
Ich erwarte mir nur nichts Tolles mehr, die Zeiten sind – fürchte ich – seit der EM-1X vorbei und ich bedauere das ebenso wie alle anderen.
Wenn man das jetzt auf die OM1 I überträgt, stellt sich mir allerdings die Frage, was die Leute denn wirklich als FW Update haben wollen?
a) Nur die neue Motiv Erkennung für Menschen, statt der alten Gesichtserkennung?
b) Den kompletten wie auch immer neu entwickelten AF der Mark II? Was wenn der anders aber auch nicht großartig besser ist? Oder wegen weniger Puffer und anderer HW sogar schlechter ist? So genau wissen wir das doch gar nicht.
c) Wenn schon denn schon, die sollen gleich den AF der Z9 oder A9 lizensieren und ausrollen?
d) Andere wirklich nützliche Features? Ich hätte soooooo gerne die Mininachführung des Sensors a la Pentax für Sternenhimmel durch den IS. Werde ich aber ziemlich sicher nicht bekommen.
Ich habe momentan das Gefühl, dass viele Leute (und da will ich mich gar nicht ausnehmen) ihren Frust und Ihre Zukunftsängste und Bedenken am ersten besten Sündenbock ablassen, der dummerweise die Aufmerksamkeit auf sich lenkt.
Anders kann ich mir diesen OMDS Shitstorm nicht erklären.
Für mich ist das ein ähnlicher “Ablenkungs-Aufreger” wie Gendern oder Wokeness. Es gäbe wesentlich wichtigere und dringendere Themen über die unsere Gesellschaft konstruktiv und mit Respekt diskutieren sollte aber davor hat man Angst oder keine Lösungsideen und dann muss halt so ein “Platzhalter” zum Dampf ablassen herhalten.
Ich fände es schön, wenn wir alle wieder freundlich und respektvoll mit einander umgehen würden.
Und ich bin wirklich sehr gespannt auf Deine weiteren Erkenntnisse zum AF und anderen Eigenschaften der OM 1 II.
Da muss ich Dir mal wieder zustimmen. Ich halte den AF der OM-1 auch für deutlich besser als den der E-M1II. (Mit FTs sowieso). Allerdings halte ich den AF der OM-1II für schlechter als den der OM-1. Der S-AF ist ganz klar ein Rückschritt. Die Motiverkennung funktioniert nicht signifikant besser, und nach den Tests, die ich gerade mit dem C-AF ohne Motiverkennung gemacht habe, liegt die Fehlerquote der OM-1II beim Dreifachen (!) der OM-1. Wenn ich bei der OM-1 10% unscharf habe, sind es bei der OM-1II 30%. Gleiche Situation. Und die OM-1II liefert weit heftigere Ausreißer – und länger andauernde unscharfe Phasen.
Das Problem jetzt ist, dass OMDS über seine Influencer vom phantastischen AF der OM-1II getrommelt hat – und alle, inklusive mir, das geglaubt haben. Und alle wollten diesen AF jetzt auch haben. Nur – dieser “phantastische AF” ist eine miese Kopie des G9II-AF. Mit allen Fehlern. Glaub mir, niemand will diesen AF in seiner OM-1 haben. Wir wollen alle das haben, was OMDS angekündigt hat – aber das gibt es nicht. Es gibt eine OM-1, die versucht, eine hübschere G9II zu sein. Und dafür einen halben Tausender teuerer ist.
Ich habe die G9II, die OM-1II und die OM-1 parallel da. Das ist frappierend.
@acahaya – es haben ja zahlreiche Leute auch anderswo schon erklärt, und wenn sich die OM-1 im AF für das Gros der Benutzenden klar gleich gut oder besser verhalten würde als die E-M1 II/III, dann hätte es wohl nicht den Shitstorm in der Ausprägung gegeben, in der er kam. Wenn dir oder auch Reinhard in deiner bzw. seiner fotografischen Praxis keine Nachteile gegenüber der E-M1 II/III auffallen, dann ist das schön für euch, bildet aber nicht die ganze Realität ab.
Ich selber hatte nach dem Auspacken der OM-1 fünf Minuten gebraucht, um beim Rumknipsen im Wohnzimmer die systematischen Totalausfälle bei geringem Kontrast festzustellen, wie sie spätestens Robin Wong irgendwann publikumswirksam präsentiert hat, auf Motiven, mit denen keine meiner anderen Kameras aus den vergangenen zehn Jahren einschließlich der alten E-M10 irgendetwas anderes tat als sofort und korrekt zuzupacken. (Interessant wäre jetzt natürlich noch, ob die Sache denn überhaupt in der OM-1 II behoben wurde.)
Ich habe seinerzeit die Kamera nur deswegen nicht gleich am nächsten Tag wieder zurückgehen lassen, weil ich es für wenig wahrscheinlich hielt, dass unser Hersteller sowas nicht in absehbarer Zeit per Firmware beheben oder wenigstens lindern würde. Meine beiden E-M1 II behielt ich exakt aus dem Grund, und die OM-1 bleibt bei mir regelmäßig aus diesem Grund zuhause.
Diese Schwierigkeiten bei schlechtem Licht und geringem Kontrast hat die Neue auch. Das hat einfach mit dem System der AF-Punkte auf dem Sensor zu tun. Da gibt’s IMHO keinen Fix dafür. Nervt immer, wenn ich im Lichtzelt schwarze Kameras und Objektive fotografiere, aber dann verlegt man den AF-Punkt halt. (Dafür habe ich 1/100s Sync-Zeit beim Stacking) Bei People-Fotografie und Events und auch in freier Natur habe ich damit keine Probleme. Aber das kann anderen anders gehen.
Man sollte nicht vergessen, dass es sich hier nur um Assistenzsysteme handelt. Die können richtig liegen, müssen es aber nicht. Eine KI “erkennt” nichts, sie bewertet nur in Bruchteilen einer Sekunde ein Muster aus Farben und Formen, und falls die Analyse einen Schwellwert übersteigt, signalisiert sie einen “Treffer”. Mehr ist das nicht. Im Titelfoto wurde vermutlich ein Muster erkannt, das einem dunklen Schwalbenkörper mit dem gabelartigen Schwanz ähnelt. Mit zusätzlichem Training kann man Trefferquoten verbessern. Aber wenn man vor allem Corner Cases trainiert (z.B. kontrastarmer Vogelkörper hinter kontrastreichen Ästen und Zweigen) riskiert man vermehrte “false positives”, weil dann irgendwann überall etwas erkannt zu werden scheint. Menschen funktioneren ähnlich. Wir erkennen Gesichter in Wolken, im Milchschaum, zerknülltem Papier,…
Ja natürlich liegt die schlechte Erkennungsrate an der schlechten Erkennungsrate. Aber auch wenn wir Gesichter in Wolken erkennen, dann wissen wir immer noch, dass das eine Wolke ist. Die Kamera stellt eine Brennweite fest, eine Entfernung zum Motiv und demzufolge kann die Kamera feststellen, wie groß das Motiv ist. Der weiße Rahmen wurde nur um den Rücken gemacht, nicht um die Arme und Beine. Wir haben also einfach einen schwarzen Fleck, der sich bewegt. Genauso mit dem schwarzen Rucksack des anderen Rollschuhfahrers. Die Kamera kann wissen, wie groß das Motiv ist. Ich kenne keine schwarzen Vögel, die fast nen Meter groß sind und ohne Flügel in einem Meter Höhe über Asphalt schweben. Dieses Assistenzsystem ist einfach schlecht. Egal aus welchem Grund. Und – und das ist eben der Knüller. Ohne Assistenzsystem ist der Fokus doppelt so oft korrekt.
Vielleicht hat ja der Motiv-AF beim Foto mit der Rollerbladerin die Äste PLUS ein klares Objekt in der Mitte gesehen, was laut Erlerntem bedeutet, dass das Objekt in der Mitte vermutlich ein Vogel ist, da ein sitzender Vogel oftmals von Ästen umgeben ist.
Der zweite Rollschuhfahrer hatte aber keine Äste im Hintergrund….. (Und die Hälfte der Fotos der Frau wurde auf die Äste scharf gestellt, statt auf die Frau. Also das kann’s irgendwie auch nicht sein….)
Vielleicht war im Falle der Frau der Motiv-AF davon irritiert, dass sich der “sitzende Vogel” bewegte. Dann doch lieber die Äste, denn die waren schließlich als verlässlich erkannt eingestuft worden. 🙂
Zu “Die Kamera kann wissen, wie groß das Motiv ist”:
Heißt das, die Vogelerkennung nimmt eine Größenanalyse vor, um zu entscheiden, ob etwas von der Größe her ein Vogel sein kann? Das wäre ja interessant (und cool), denn von Kolibri bis Kondor ist die Spannweite da recht groß.
Hab keine OM-1, daher kann ich da nix austesten. Die Gesichtserkennung in meinen Olys ist jedenfalls nicht von der Größe abhängig. Auch Gesichter auf kleinen Passfotos bzw. von 5 cm großen Büsten auf Kugelschreiber-Enden werden erkannt.
Das heißt, die “Kamera kann wissen”. Sie könnte es errechnen. Sie tut es aber ganz offensichtlich nicht. Das ist eben der Gag. Man verlässt sich auf eine KI, die stumpf Muster “erkennt”. Man setzt der zehntausend Bilder von Vögeln vor. Viele davon sind halt dunkle Flecken vor hellerem oder blauem Hintergrund. Also hält die Kamera dunkle Flecken vor hellem Hintergrund für Vögel. Ein schwarzer Rucksack auf einer blauen Jacke: Ganz klar Vogel. Ich hatte auch schon bemooste Äste, die für Vögel gehalten wurden und deshalb der Vogel dahinter durch den Rost gefallen ist. Warum erkennt die Kamera keine Stare (Sturnus vulgaris), obwohl die in Massen auf einem Ast sitzen? Der ist zwar der häufigste Vogel der Welt – aber in Japan gibt’s den nicht. Und niemand fotografiert Sturnus vulgaris von nah – da sind ja Meisen oder Tauben noch spannender. Also ist der anscheinend nicht trainiert worden.
Ich wage – trotz Kenntnis der Churchill’schen Weisheit hierzu – mal eine Prognose:
Das wird bei OMSystems auch nicht so bald viel besser.
Für die Kamerahersteller erfolgt derzeit ein größerer Evolutionssprung was die Technik des Autofocus angeht: von der “einfachen” Erkennung von Kontrastkanten (Kontrast-AF) und Entfernungen (Phasen-AF) hin zu komplexen Auswertungen des gesamten Sensorbildes. Hierzu sind neue, deutlich komplexere Algorithmen nötig, vulgo KI, wenn auch natürlich nur Mustererkennung und keine “echte” Intelligenz dahinter steckt. Unter allen Kameraherstellern sowie sonst mit Bildverarbeitung befassten Firmen (z.B. Exire u.ä.) läuft der Wettlauf erstens um die besten Leute und zweitens um die besten Algorithmen.
OM Systems hat zwar einen schnellen Sensor, bekommt also theoretisch schnell genug Daten vom Sensor für einen guten Autofokus, aber die o.g. offensichtlichen Fehlentscheidungen oder Außerachtlassungen der Algorithmen zeigen, dass die Software und deren Entwicklung nicht hinterherkommt. Und da dürfte OM Systems nach meiner Einschätzung was verfügbares Investivkapital für Entwicklung, den Ruf eines sicheren Arbeitgebers, etc. angeht usw. nicht erste Liga spielen können. Eventuell ist auch die intere Firmenkultur hinsichtlich Software nicht in einem Mindset, was schnelle Entwicklung erlaubt. Ich habe zwar nach dem EM1 Mark 1 keine neuere Olympus mehr in der Hand gehalten, aber das inzwischen mind. 5 Generationen später der Tracking-AF immer noch nur zur Abschaltung empfohlen wird, spricht doch Bände, was das Entwicklungstempo angeht. Derweil baut Sony eigene, spezielle Chips für die Autofokus-Algorithmen und hat einen Tracking-CAF, der so gut ist, dass er selbst an meiner als Nachfolger für die EM1.1 angeschafften A7R4 ohne diesen Chip eigentlich die einzig genutzte Einstellung ist und rennende Kinder, Tiere, etc. bis auf wirkliche Extremfälle schon top erledigt, sodass ich mich – gerade bei Kindern – auf die Interaktion, den Moment, den Gesuchtsausdruck, die Komposition konzentrieren kann weil der AF einfach immer sitzt bzw. der Ausschuss so verschwindend gering ist, dass er in der Praxis einfach unter den Tisch fällt. Ich will nicht für Sony Werbung machen, die neuen Nikon Z8, Z9 und die Canons dürften ähnlich sein, ich kenne sie nur nicht aus eigener Erfahrung. Vermutlich haben Sony und evtl. andere Hersteller auch einen Vorsprung in der Entwicklung eines Android-basierten Betriebssystems für die Kameras, welches es wesentlich erleichtern wird, Entwickler zu gewinnen, auf bereits vorhandene, programmierte Softwarebibliotheken zuzugreifen, durch ein etabliertes Treibermodel weitere Chips anzubieten, Firmwareupdates (ggf. auch kostenpflichtig) einfach zu programmieren, zu testen und zu verteilen und ggf. auch Apps zum unmittelbaren Teilen der Bilder auf der Kamera zu haben. Auch der Autofokus wird hierdurch nochmal schneller reifen. Ich habe keinen Einblick in die Größe der Entwicklungsabteilungen und -budgets der Kamerahersteller für einen Vergleich. Aber ich sehe derzeit einfach nicht, wie OM Systems hier das Tempo der Konkurrenz mitgehen will. Bedingt durch die vergleichsweise kleinen Stückzahlen, der Umbruchssituation, etc sehe ich sie hier einfach leider im Nachteil. Die bisher seit Ausgliederung erschienen Produkte geben zumindest in meinen Augen da auch wenig Anhaltspunkte für Hoffnung.
Dann würde für OM Systems die Aufgabe verbleiben, während eines technischen Hinterherhinkens im Rennen zu bleiben, bis die “neue” Autofokus-Welt sich stabilisert, der Entwicklungssprung vollzogen ist und das Entwicklungstempo daher zurückgeht und man aufholen kann. Bis dahin muss erstmal das Geld reichen. Ich hoffe für MFT, dass das klappt. Die kolportieren Vorbestellerzahlen zur Fuji X100 VI legen ja nahe, dass da durchaus eine Nische für kleines, sexy Streetfotografiebesteck besteht, in der vermutlich der Autofokus auch nicht überragend gut sein muss um Kameras verkaufen zu können. Wie es in der Tele-Nische für Fotografen mit dem Budget für ein 150-400TC aussieht kann ich nicht beurteilen, aber wenn jetzt bei OMSystems sogar die Tele-Kleinbildobjektive angeflascht werden habe ich doch Zweifel für den Bereich der Gelegenheitstelefotografen: Das 150-600mm kann ich für den halben Preis direkt bei Sigma für Sony kaufen und wenn ich die A7R4 auf 2x kroppe, also damit auch auf 1200mm Brennweite komme, verbleiben noch 16Mpix, was gegenüber den 20Mpix der OM1.1 / OM1.2 jetzt nicht den Bock fett macht. Brauche ich nämlich mal gerade nicht die 1200mmm Brennweite (und fairerweise muss man auch an der Bildrate Abstriche akzeptieren), dann profitiert dei A7R4 im Vergleich vom wenn nicht besseren dann zumindest einfacheren Autofokus und einer höheren Auflösung. Zu bedenken ist auch: die A7R4 geht für rund 1500€ gebraucht zu erwerben und der Gebrauchtmarkt / Vorjahresgenerationenabverkauf von Kleinbild und APSC dürfte es für OMSysmtes nicht einfach machen, die aufgerufenen Preise in großen Stückzahlen umzusetzten.
Schnelle Besserung des Autofokus erwarte ich deshalb eher nicht.
„Warum erkennt die Kamera keine Stare (Sturnus vulgaris), obwohl die in Massen auf einem Ast sitzen? Der ist zwar der häufigste Vogel der Welt – aber in Japan gibt’s den nicht. ……… Also ist der anscheinend nicht trainiert worden.“
Das wäre für mich allerdings sehr überraschend. Meine OM-1.1 hat mit Staren kein Problem.
Das würde ja bedeuten, dass die Vogelerkennung jetzt auf das Erkennen konkreter Vogelarten trainiert worden wäre, was ich mir nur schwer vorstellen kann. Ich bin bisher davon ausgegangen, dass die KI lediglich darauf trainiert wurde, ganz allgemein auf Grund von Statur, Silhouette, Flugbild usw. zu erkennen, ob es sich um einen Vogel handelt oder nicht, und gerade deshalb auch häufig mal daneben liegt.
Vermutlich sind die vielen kleinen Stare auf dem Beispielfoto oben nicht prominent genug. Das ist für die Cam-Logik wahrscheinlich einfach nur “ein paar Äste mit komischen Flecken drauf”. Was ist eigentlich mit dem Star im oberen Viertel am rechten Bildrand passiert? Er scheint HINTER dem dicken Ast zu sitzen, aber gleichzeitig ist genau da ein dunkler Fleck im Ast. War das Zufall?
Alles Zufall. Aber ich habe schon kleinere Vögel erlebt, die erkannt wurden. Meisen zum Beispiel.
Nein. So wird das nicht trainiert. Die KI bekommt Bilder vorgesetzt und gesagt “Das ist ein Vogel”. Wenn sie keine Fotos von sitzenden Staren gezeigt bekommt, weiß sie nicht, dass das ein Vogel ist. Bei fliegenden Staren ist das anders, das ist so ein schwarzes Flatterding vor blauem Hintergrund. Das kann man erkennen. Ich habe beim Nachbarn Hühner. Die sind keine Vögel. Die bunte Gartenkugel gleicher Größe ist aber ein Vogel. Es sind Muster, die “erkannt” werden, keine Tiere. Anfangs konnte die KI nur japanische Hunderassen erkennen. Elke, meine Schaufensterpuppe, ist laut der Kamera klar ein Haustier – zumindest solange sie die blonde Dauerwellenperücke auf hat. Offensichtlich gibt’s in Japan Hunde oder Katzen mit langen Mähnen und nackten Gesichtern.
wenn ich das hier und auch die Userberichte im Oly – Forum so mitlese habe ich aktuell so gar keinen Grund auf eine OM-1.1 oder 1.2 up zu graden. Motiverkennung klappt , klappt nicht …. Ich erkenne für mich nicht so richtig den Mehrwert den Beta Tester für OM-System zu geben und dafür auch zu bezahlen. Solang meine EM-1n nicht den Geist aufgeben sehe ich nicht ein ein Nachfolge Modell zu erwerben. Ich erwarte das eine Motiverkennung bei wenigstens 70-80% der Fälle sitzt und das bei sich bewegenden Motiven. Bei sich nicht bewegenden Motiven sollten es ca. 90% Trefferqoute sein. Für andere Kamerafunktionen erwarte ich dasselbe zumndest wenn die so deutlich beworben werden.
Wenn ich das so lese, frage ich mich für was die ganze AI Motiverkennung gut sein soll.
1. Ich muss in der Kamera zuerst das gewünschte Motiv auswählen
2. irgendwie der Kamera trotzdem sagen, wo das Motiv ist und bestätigen
3. das muss ich sogar für profane Menschenfotografie machen
Da nehme ich doch gleich einfach den C-AF. OM System würde gescheiter den C-AF und C-AF + Tracking verbessern, damit er z.B. auf das Niveau einer mittlerweile steinalten Nikon D500 käme. Meine D500 hat einen simpel einzustellenden AF, der sitzt. Würde mir für das Oly Geraffel absolut genügen.
Ich sehe auf jeden Fall irgenwie keinen Grund meine EM1 III für eine OM1 oder OM1 II wegzugeben.
Auch gut, wieder Geld gespart.
Hello
Which of these two option have you selected? (Page 135 in German pdf-manual)
Select which AF operation is used when the trigger is half pressed down.
1: Tracks the focus of the subject when it is detected at the selected AF field point.
2: Always tracks the focus on the selected AF field point.
Hilsen
Jan Partoft (DK)
I tried both options on different buttons and the first – default – option on both buttons.
Motiverkennung ist einfach zu riskant für einmalige Situationen.
Bei gründelnden Enten kann man sich gemütlich damit austoben, die phantastische Bartgeierbalz ( Wildlife, weit oben am Berg; ich hatte das schon mal hier geschrieben ), die mir die Motiverkennung versemmelt hat, die kommt so schnell nicht wieder.
In einem hast du Recht: die lichtstarken langen Röhren (300mm, 150-400mm), idealerweise ohne Konverter, vertragen sich deutlich am besten mit C-AF in jeder Form.
Und um hier nicht ständig als Querulant zu performen, mein bescheidenes persönliches Setting für unwiederbringliche schnelle Ziele:
– keine Motiverkennung! Motiverkennung kostet Verrechnungszeit (ganz zu schweigen von den kryptischen
Algorithmen und Entscheidungen in den Tiefen des Prozessors).
– C-AF ohne Tracking mit “Alle Felder” ; Objektzugriff am zuverlässigsten; Nearest is best am zuverlässigsten (in der
Regel gewünscht, außer für Rohrdommel hinter Schilfwand).
– Kamerakonfiguration auf blitzschnelles Umschalten auf S-AF, falls nötig.
– EE1 (!), ist in der Objektverfolgung allen Trackingmethoden haushoch überlegen.
Uups, war adressiert an acahaya
Ich gebe Dir in allen Punkten Recht.
Motiverkennung ist eine Unterstützung die manchmal gut und manchmal nicht gut funktioniert.
Wichtig ist (mit Ausnahme von Alle Fokusfelder), dass man bei C-AF ein für Motiv und Distanz geeignet großes Fokusfeld hat und damit auf dem Motiv bleibt.
C-AF mit TR und allen Fokusfeldern nur dann, wenn das Motiv offensichtlich gut erkannt wird und sich innerhalb eines festen Bildausschnitts hin und her bewegt. Nicht wenn es auf einen zu kommt und nicht wenn man mit zieht und den Bildausschnitt wechselt.
Damit bekomme zumindest ich die besten Ergebnisse.
Die Vogelerkennung der OM1.1 hat bei mir beim Bartgeier im Vorbeiflug trotz sehr unruhigem Hintergrund perfekt gegriffen. Besser als die A1 und die Z9 die neben mir standen.
Seit ich mal eine Bartmeise im Schilf deswegen verpasst habe, ist meine Kamera so konfiguriert das dich die Erkennung in dem Fall das sie komplett versagt sofort weg schalten kann. Dann wird über Einzel-AF Feld mit CAF fokussiert. Ich kann den Ärger mit der verpassten Kopulation sehr nachvollziehen.
Es wurde oben schon mal geschrieben es ist ein Assistenz-System, genauso wie beim Sternen-AF, oder dem In-Cam Stacking, dem neuen GND Filter, oder die Automatikprogramme. Sie sind cool zu haben, funktionieren sehr oft sehr gut, aber in extrem Situationen ist man gut beraten sich von der Kamera keine Entscheidungen abnehmen zu lassen.
Das gehört nicht so ganz hierher, aber gestern gab es einen Newsletter, darin auch der Link (falls problematisch, bitte löschen) zum Thema Updates:
https://explore.omsystem.com/de/de/firmware?olycmp=nws-2024_02_28_WinterSunrise_Tips-email-EU-link-CTA_OM1_Firmware_Update#om1
Beste Grüße
H.