KI und digitale Korrektur

Vor ein paar Jahren habe ich hier einen Aprilscherz gemacht – das „E-Model“. Damals fanden wir das lustig. Mittlerweile ist das fast schon Schnee von Gestern. Samsung hat in seine Smartphones seit dem S21 von vor zwei Jahren eine KI eingebaut, die das Motiv erkennt und es „optimiert“. Wenn man mit dem Taschenbrett den Mond knipst, erkennt die KI „Aha, Mond“ und baut eine Mondtextur auf den vermatschten, hellen Fleck. Das hat einer hier auf Reddit sehr schön gezeigt. Ein anderer hat auf den Mond auf seinem Computer ein Grinsegesicht gemalt und die KI erkannte dunkle Flecken auf dem Mond – das müssen Krater sein. Und hat aus dem „Smiley“ Kratertextur gemacht.

Dass Tiktok mittlerweile einen neuen Filter hat, der im Video funktioniert und auch aus dem übelsten Out-Of-Bed-Look einen Superstar bastelt (fast wie bei unserem Aprilscherz) sollte sich auch schon rumgesprochen haben. Der Filter ist so gut, dass er auch keine Artefakte mehr produziert, wenn man sich übers Gesicht wischt.

Das ist alles nicht mehr mit dem „e-Porträt“ zu vergleichen, das unsere Kameras eine ganze Zeitlang drin hatten, mehr so ein eingebautes „Porträt Pro“ im Live-Modus.

Im Prinzip ist das eine logische Folge: Die Physik lässt mit den winzigen Sensoren in Kombination mit winzigen Objektiven keine bessere Qualität zu. Um die Beugungsgesetze können sich auch allmächtige, multinationale Konzerne nicht drücken.

E-500 mit 40-150 f/3,5-4,5. Keine KI. Toskana bei Barberino

Aber wozu gibt es eine Ki, die man mit all den Gratis-Bildern im Internet trainieren kann? Die KI stellt fest, wo die Knipse gerade ist und in welche Richtung gehalten wird und was grob am Display ist und saugt sich aus dem reichen KI-Erfahrungsschatz ein paar Texturen, die auf das Bild geklatscht werden und siehe da – alles scharf. Nicht mal mehr eine Verwacklung kann das tolle Bild verhindern.

Gelegentlich kann es vorkommen, dass der Telefonbediener Dinge fotografiert, die noch niemand fotografiert hat. Dann ist halt die Qualität nicht so berauschend , aber das spielt dann ja auch keine Rolle, weil sie ja noch niemand anderes besser fotografiert hat.

Was blüht uns da?

OMDS hat ja schon zu Beginn erklärt, dass Sie sich in Richtung „Computational Photography“ bewegen wollen. Die Bilder, die die Objektive liefern, werden ja bereits jetzt nach Kräften aufgehübscht. Da wird die Geometrie verbogen, die Helligkeit korrigiert, die Randabschattung ausgeglichen und nachgeschärft, bis der Arzt kommt. Auch die Beugung wird „ausgeglichen“ – das bedeutet, einfach ab Blende 14 die Schärfe nochmal hochgefahren.

Das e-Porträt, das sie mal eingeführt haben, um den Smartphones was entgegensetzen zu können, haben sie mittlerweile wieder aufgegeben, weil es niemand benutzt hat. Aber wir können darauf warten, dass das Beispiel von Samsung Schule macht. Die unglaublichen Mondfotos aus den Handys haben so für Furore gesorgt, dass alle anderen nachziehen werden – und wir können darauf warten, dass diese Technik auch in die Kameras einziehen wird. Vielleicht wird dann der digitale Telekonverter „KI-enhanced“ sein. Oder es gibt eine „Federerkennung“ bei Vögeln, die dann per KI scharfe Federn auf den Piepmatz pappt. Simpel wäre auch eine „Raubvogelerkennung“, die anhand des Flugbildes den Bussard erkennt und einen entsprechend KI-optimierten Flattermann an die richtige Stelle klebt – blauer Himmel und davor ein von unten belichteter, perfekt scharfer Bussard. Gelingt immer und klebt nicht.

Oder das ist alles schon eingebaut? Es fällt nur nicht auf, weil man es nicht so einfach nachweisen kann, wie beim Mond?

Die letzte Frage ist: wollen wir das vielleicht sogar? Scheiß doch auf die Realität….

8 Replies to “KI und digitale Korrektur”

  1. Also ich will´s nicht!
    Wenn ich Bilder aus dem Internet haben möchte, dann hole ich sie mir selber aus dem Internet.
    Wenn ich etwas fotografiere, was ich sehe, dann soll das Foto auch so aussehen, wie ich es sehe.
    Wenn ich Fotografiertes verbiegen möchte, dann will ich mein eigenes Photoshop bemühen.
    …aber ich bin ja auch schon 50+
    *schulterzuck*
    Martin

  2. Ich hoffe inständig, dass diese angesprochen Szenarien nicht in Kameras eingebaut werden und dann das Ergebnis auch noch im RAW gemeißelt wird.

    Derzeit ist es das zum Glück nicht. Auch wenn die Rechenleistung in letzter Zeit in unseren Kameras beeindruckend gestiegen ist, sie reicht derzeit bei weitem nicht. Die Entwicklung der PC CPU’s konnte man ja in den letzten 4 Jahren mitverfolgen.

    Wenn ich heute AI Netzwerk basierende Tools auf ein 20 MPixel Bild (allerdings 32bit) loslasse, dauert das schon mal 5-6 Minuten, selbst bei einem AMD Ryzen 5950X (16c/32t). Auf einer Nvidia RTX2060 Karte gerechnet immerhin noch 15 Sekunden. Von den 150-200W gestiegenem Stromverbrauch reden wir jetzt mal nicht 😉

    In der Astrofotografischen Bildbearbeitung wurde Anfang 2019 ein erstes trainiertes AI Tools weltweit bekannt und steht gratis zur Verfügung: StarNet++ . Es entfernt Sterne aus einem Bild, was bis dahin selbst für „Profis der Bildbearbeitung“ um die 4 Stunden akribische Arbeit bedeutete.

    Vor 2-3 Jahren wurden ja AI Tool basierende Software zum Entrauschen und Schärfen auf die Fotowelt losgelassen.

    Nebeneffekt für die, die es mitbekamen: Um effektiv zu sein, muss man einiges an Bildbearbeitungsschritten dann machen, wenn die Bilddaten noch im linearen (ungestrecktem) zustand vorliegen, „pure RAW“ sozusagen. Das betrifft auf jeden Fall neben Weißabgleich vor allem Bildschärfung mit Deconvolution und AI trainierten Systemen. Wer da vorher schon an seinen Bilddaten gedreht hat, wie z.B. entrauschen, weil es ja offenbar immer das Problem Nr 1 zu sein scheint 😉 , wird hinterher nicht mehr ganz so glücklich mit dem Ergebnis sein.

    Einige Monate nach Veröffentlichung der AI Fototools, kam das dann in der Astrofotografie zu einem auffälligen Problem:

    Es tauchten Fotos auf, die Details zeigten, die mit der angegeben Ausrüstung und summierten Belichtungszeiten etc, gar nicht möglich sind.
    Dankenswerter weiße reagierte einer der Betreffenden auf Anfrage und stellte die Rohdaten und seine Ausarbeitungsschritte zur Verfügung, sodass _wirklich_ Wissende das Bildergebnis sogar nachvollziehen konnten.

    Die „plausiblen“ Artefakte im Bild waren eindeutig der Anwendung dieser Foto AI Entrauschungs und Schärfungstools zuzuschreiben. Es fügte Strukturen zu, die es gar nicht gibt. Als Vergleich stehen uns allen ja heute Daten von Großteleskopen und natürlich Hubble Space Teleskopdaten zur Verfügung.

    Offenbar basieren diese Tools auf Algorithmen die auf einem gemeinhin unter „deep Fake“ bekannt sind, die z.b. auf GAN (Generative Adverserial Network) basieren. Dabei versucht eine AI den Bildinhalt zu erkennen und zu verbessern. Dabei fügt sie auch Änderungen ein, eine zweite AI prüft auf Plausibilität.

    Wenn man in der Alltagsfotografie also z.B. damit sein Landschaftsbild verbessert, ist es letztlich egal ob das eine oder andere Zweiglein in einer Hecke oder Wald z.b. dazukommt oder nicht. Hauptsache Rauschfrei und Scharf bis aufs letzte Pixel….

    Mitte Dezember 2022 wurde ein (kostenpfichtiges) Addon (blurXTeminator) für das meist angewendete Astrofoto Bildbearbeitungs Programm PixInsight vorgestellt. Auf ein PS Addon musste der Autor dieses mal verzichten, weil hier PS unter der Haube zu veraltet ist und auch nicht mit linearen Daten arbeitet.

    Nach einer Schockstarre, was das Ding einfach so, schon mit Standardeinstellung im Stande war zu verbessern, gingen dann bald die Wogen hoch: Da werden einfach Daten von Hubble in sein Bild „kopiert“.

    Geht natürlich nicht, dann man kann natürlich den gesamten „best fotografierten Sternenhimmel“ nicht in eine DensorFlow Datei mit 200 MB unterbringen.

    Ende Jänner war das Thema dann durch: Es erfindet keine neuen Strukturen, es ist einfach nur gut trainiertes Neuronales Netzwerk, dessen Grenzen durch die Güte des Ausgangsbildes gesetzt werden.

    Es kommt also sehr drauf an, wie und welche AI Tools man einsetzt.

    Siegfried

  3. „….auch aus dem übelsten Out-Of-Bed-Look einen Superstar bastelt….“
    Und was passiert, wenn sich zwei dieser „Superstars“ begegnen?
    Meine Liebste hatte dazu eine wunderbare Idee: Spezielle Kontaktlinsen, die dann die „notwendige Anpassung“ vornehmen, damit wieder eine komplette Übereinstimmung mit der „Nicht-Wirklichkeit“ hergestellt wird.
    Ein weiterer Schritt in eine vollkommene digitale Welt 😉
    LG + allen ein schönes Wochenende

      1. Das ist schon krass, wie an den Reaktionen der tiktokker zu sehen ist.
        Also Augen auf und Skepsis an, wenn man durch die schöne neue Welt geht.
        Mir fällt gerade eine alte RS Enterprise Folge ein, da ist die Crew auf einem Planeten gelandet der in Wahrheit in Schutt und Asche lag. Die Bewohner konnten aber die Illusion einer heilen Welt in den Köpfen erzeugen.
        Letztendlich wollte dann ein unheilbar k
        ranker Mitreisender dort bleiben.
        Es kommt eben, wie immer, darauf an, ob man die neuen Möglichkeiten zum Guten oder zum Schlechten nutzt.
        Grüße von Olaf

  4. Bei Wikipedia (engl.) gibt es seit dem 20 Dezember 2022‎
    den neuen Begriff „Synthography“.

    Wenn man nun solche Kameras benutzt, ist man dann
    noch ein Fotograf oder bereits ein Synthograf?

  5. Mich würde einmal die Meinung der Experten zu pureRAW3 interessieren. Man bekommt ja eine voll funktionsfähige Testversion. Ich finde es absolut beeindruckend, wie da entrauscht wird. Beim Schärfen ist meine Meinung nicht ganz so eindeutig. Manchmal finde ich es gut, manchmal aber auch zu stark.
    Ich habe es schon einmal geschrieben: meiner Meinung gibt es eine solche Funktion in nicht allzuferner Zein in der Kamera. Bei der OM1 wurde ja im Vorfeld von einer Verbesserung des Rauschverhaltens um 2 Stufen gesprochen. Vielleicht – achtung Spekulation!!! – war diese Funktion ja schon für die OM1 vorgesehen, ist aber dann doch nicht rechtzeitig fertig geworden.
    Schöne Grüße aus dem Spessart

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert