Was ist ein Drittel von 12? Richtig. 4. Wenn ich also ein 12cm breites Bild habe, wo sind die Drittellinien? Richtig. Auf 4cm und 8cm. Dort sollten entweder die Grenzlinien von Bildbereichen sein, oder die Schwerpunkte von Motiven, die „Drittelregel“ zu erfüllen.
Bei 8cm Höhe liegen die Drittellinien bei 2,67cm und 5,33cm. Soweit klar?
So. Und nun gibt es eine andere Gestaltungsregel. Die heißt „goldener Schnitt“. Die ist etwas komplexer. Bei 12cm sind die senkrechten Linien bei 4,51 und 7,5. Und bei 8cm Höhe bei 3,1cm und 4,9cm. Sie sind also in der Mitte näher zusammen.
Baut man nun ein Bild nach dem „Goldenen Schnitt“, dann setzt man die Motive wieder auf die entsprechenden Linien.
Der Unterschied liegt darin, dass man beim Goldenen Schnitt nur ein Motiv braucht, bei der Drittelregel benötigt man zwingend ein Zweitmotiv für die Balance – und wenn es auch nur leerer Raum ist.
Was hat das mit KI zu tun?
KI ist ja doof. Die kann nur nachplappern, was irgendwelche Nasen im Internet vorkauen. Und da die Leute im Internet alle behaupten, dass Goldener Schnitt und Drittelregel das Gleiche sind – weil sie mit Verhältnissen von 1:1,618033988… mathematisch völlig überfordert sind – setzt auch ChatGPT die beiden Verhältnisse gleich und lobt den Bildaufbau nach Drittelregel, obwohl das Flatterviech im goldenen Schnitt ist. oder umgekehrt.
Entsprechend ist auch die restliche Bildanalyse: Da kommt Forendutzendware. Ist klar, wenn man einer KI vorsetzt, was sie kennt, spult sie das ab, was unter diesen Bildern im Allgemeinen druntersteht. Bullshit halt. Metaebenen, Insidergags oder gar politische Inhalte kann die KI nicht. Woher auch.
Wie ich da drauf komme? Ich bin in Foren und Blogbeiträgen darüber gestolpert, dass Leute ihre Bilder von ChatGPT analysieren lassen. Die Antworten wären generisch, aber man fand, man wäre froh gewesen, wenn man zu Zeiten des eigenen Anfängertums solche Bildanalysen bekommen hätte.
Nur – wenn die Bildanalyse nicht mal den Unterschied zwischen Drittelregel und Goldener Schnitt kennt, welchen Wert hat das dann? Was hilft mir eine Assistenzsoftware für das Auto, die den Unterschied zwischen gelb und rot nicht kennt?
Was passiert? Das Wissen um Bildgestaltung degradiert. Internetblödsinn wird verfestigt. Hunderttausend Forenten können nicht irren. Denn die KI weiß ja nicht, was wahr ist – sie weiß nur, was die meisten für wahr halten. Und wenn sie zu einem Thema nichts in der Wahrscheinlichkeit hat, halluziniert sie fröhlich vor sich hin.
Ich habe sie mal zu HCO befragt, der Band, mit der ich seit gut vierzig Jahren auf Tour bin. Sie hat – o Wunder – sogar die Website der Band gefunden. Über die Größe der Band weiß die KI, dass sie in den ersten zehn Jahren nur vier Mitglieder hatten. Und versieht das „Vier“ mit einem Link zum Wikipedia-Artikel der Fanta4. Zu viel der Ehre. Und natürlich stimmt das mit den vier gar nicht. Insgesamt waren es 12, wenn man die Sängerinnen vom Auftritt in Neustadt mitrechnet. Dazu muss man aber sinnerfassend und webseitenübergreifend lesen können. Die KI kann aber offensichtlich nur einzelne HTML-Seiten analysieren. Sie weiß sozusagen alles zum goldenen Schnitt, weil es da einen Wikipedia-Artikel dazu gibt. Und alles über die Drittelregel. Aber dass das zwei unterschiedliche, wenn auch ähnliche Dinge sind – das kann die KI nicht.
Sie sieht ein Bild eines Vogels, so ein Bild gibt es eine Million Mal im Netz, und muss nun nur noch wiederkäuen, was Forenten da druntergekritzelt haben. Was hat das mit dem konkreten Bild zu tun? Nichts.
Wenn wir schon dabei sind: Getty und Shutterstock versuchen sich gerade zusammenzuschließen. Beide haben durch die generative KI erhebliche Umsatzeinbußen zu verzeichnen – weil die Werbeagenturen, die früher völlig irre Summen an die Dinosaurier abgedrückt haben, auf einmal das Zeug per Prompt selber basteln. Und den Kunden ist es wurscht, weil sie ja bei Stockphotos das Zeug meistens eh nicht exklusiv haben, es also nicht um tatsächliche „Key Visuals“ für eine Kampagne geht, sondern einfach um Gebrauchsbilderkram, das sich eh keiner genauer ankuckt. Und die Kunden der Kunden der Agenturen haben den Kunden der Agenturen noch nicht deutlich zu verstehen gegeben, was sie davon halten, dass sie mit Fakes zugemüllt werden.
Getty hat gegen Stability AI geklagt, die Prozesse laufen noch. Interessanterweise hat Getty gar nichts dagegen, dass ihre Bilder für KI-Trainings verwendet werden, so wollen nur Kohle dafür haben. Stability AI hat sich gedacht – das sparen wir uns. Da es ja mittlerweile viele Klagen gegen KI-Firmen gibt wird es spannend: Wer überlebt den Hype? Sterben zuerst die Stockfoto-Agenturen, die Fotografen oder die KI-Firmen?
Oder kommt zuerst die Revolution und die Marketingabteilung der Sirius Kybernetik- Corporation wird an die Wand gestellt?
Um das zu verdeutlichen: Das Titelbild ist goldener Schnitt, das unten ist Drittelregel. Gar kein Unterschied. Nö…..
Na ja, KI ist zwar dumm, aber wenn man ChatGPT fragt:
„Wo liegen in der Fotografie die Unterschiede von goldenen Schnitt und der Drittel Regel “ bekommt man eine Recht ordentliche (und richtige) Antwort.
Zu Mathematik: da kann ChatGPT nichts, ich habe Testhalber Aufgabe des Fachabitur eingegeben, die sind alle falsch „gelöst“ worden.
LG Jörg
Das erinnert mich an Deep Thought. Die Antwort lautet 42. Aber was ist die Frage?
Auch hier: Wenn man ne Frage hat, dann findet man im Internet auch die Antwort dazu. Das Problem ist aber das Transferdenken. Man hat zehn Fakten und kann sie an einem neuen Problem anwenden. Das nennt man Intelligenz. KI kann das nicht. Sie kann kritiklos wiederkäuen. Mehr nicht.
Leider sind die Ergebnisse der KI nicht vorhersagbar, man muss selbst wissen, ob das Ergebnis richtig oder falsch ist. Warum dann die KI fragen???
Ich habe vor kurzem ein fotografisches Zitat gelesen, bei dem ich gerne gewusst hätte, von wem dieses Zitat ist. Also gegoogelt, keine Treffer. Bei ChatGPT kam die Antwort wie aus der Pistole geschossen, nur hatte ich den Namen noch nie gehört. Also nach diesem Fotografen gegoogelt, nichts brauchbares. Dann ChatGPT nochmal befragt und bang, ein neuer Name! Diesmal Henri Cartier-Bresson, das ist ein Pfund. Um sicher zu gehen meine Nachfrage an ChatGPT: Auf welchen Quellen basiert diese Info? Die Antwort ist der Hammer: es gibt keine Quellen und leider war die Info falsch. Das Zitat ist von xxx. Es täte ihr leid, dass ich falsch informiert wurde.
Also nochmal nachgefragt, auf welchen Quellen diese neue Info basiert. Jetzt grüßt das Murmeltier: Es gibt keine Quellen für xxx, aber es war auch nicht xxx sondern yyy. Es täte ihr leid, dass sie mir eine falsche Auskunft gegeben hatte.
Immerhin entschuldigt sich die KI dafür, dass sie mir eine falsche Info gegeben hatte. Gibt mir im gleichen Atemzug aber erneut eine falsche Info…
Finde den Fehler!
Der Begriff der Künstlichen Intelligenz ist ca. so problematisch wie der Begriff Vollformat. Eigentlich noch problematischer, weil ja schon Intelligenz ein weites Feld ist. Wenn man sich oberflächlich damit beschäftigt, kann man sich entspannt zurück lehnen, weil es ja gar so schlecht ist, was unter dem Namen alles verkauft wird. Befasst man sich intensiver damit, kann man teilweise nur staunen. Und ich meine nicht staunen und wundern, weil es etwa schlecht sei. Nein, es ist ein beeindruckendes Werkzeug. Wie mit jedem Werkzeug muss man auch damit umgehen lernen. Es passt nicht immer.
Es gibt zwei Sorten KI: Analytische KI und generative KI. Vielleicht sollte man in Zukunft generell von AKI und GKI sprechen. AKI ist ein sehr wertvolles Werkzeug. GKI ein energiefressender Hoax.
Auch das mit der GKI sehe ich anders. Finde ich zT sehr beeindruckend. Es gibt dort natürlich auch Müll.
Na, dann mal her mit den beeindruckenden Beispielen. Ich würde mich freuen, wenn ich mich irre und 5% der weltweiten Energieerzeugung nicht nur für Kack verblasen würden.
Kann ich Dir zeigen (Du hast ja meine eMail-Adresse, wir können uns was ausmachen), aber nicht öffentlich teilen. Dass es vom Energieaufwand und auch aus urheberrechtlicher Sicht problematisch ist, bestreite ich nicht.
Am 14.09.24 gab es im Spiegel ein (wie ich finde) interessantes Interview mit Geoffrey Hinton. Herr Hinton hat ja nicht nur die Grundlage mit entwickelt sondern hat sich auch zu einem Warner vor KI entwickelt.
Ich zitiere hier mal ein paar Sätze die ich in diesem Zusammenhang wichtig finde:
Hinton: Ein paar Leute denken, KI sei beschränkt, weil sie nur mit Daten des Internets trainiert sei. Das ist Unsinn. Superintelligente KI wird bald alle möglichen Dinge gesehen haben, die Menschen nie gesehen haben. Vor allem wird sie Analogien herstellen können, womöglich bessere als wir. Das habe ich zum ersten Mal verstanden, als ich ChatGPT fragte, warum ein Komposthaufen funktioniert wie eine Atombombe.
SPIEGEL: Entschuldigung?
Hinton: Wenn der Komposthaufen heißer wird, erzeugt er immer schneller Hitze. Wenn eine Atombombe mehr Neutronen produziert, erzeugt sie immer schneller Neutronen. Die Energieskala ist eine völlig andere, aber die zugrunde liegende Logik ist dieselbe, eine Kettenreaktion. ChatGPT hatte das verstanden. Die Frage war nur: Woher kam dieses Wissen? Ist diese Analogie irgendwo im Internet zu finden?
Das geht dann weiter, dass diese Analogie nirgendwo im Internet zu finden ist.
(von einem der Google Entwickler bestätigt)
Hinton kommt dann zu folgendem Schluss:
Die heutigen KI-Systeme sind extrem gut im Finden von Analogien. Das ist der riesige Unterschied zur KI des letzten Jahrhunderts. Damals hat man mit KI versucht, logisches Denken zu modellieren. Heute steht das Lernen im Mittelpunkt. Aber was die Maschine lernt, ist nicht ein Haufen logischer Regeln. Was sie lernt, ist am Ende eine metrische Intuition.
Tscho – und hier haben wir genau das Problem. Die Abläufe in einem Komposthaufen sind völlig andere, als bei der Kernspaltung. Weil es sich eben beim Komposthaufen eben NICHT um eine unkontrollierte Kettenreaktion handelt, sondern um einen Regelkreis der auch noch die Basis ändert. Bei niedrigen Temperaturen sind es biologische Vorgänge, bei höheren Temperaturen rein chemische Vorgänge. Genauso könnte man behaupten, das Entzünden einer Kerzenflamme sei eine Kettenreaktion ähnlich einer Atombombe. ChatGPT ist nicht „superintelligent“ sondern halluziniert da schlicht vor sich hin. Wie üblich. Aber anscheinend ist ChatGPT schon intelligenter als der durchschnittliche Spiegel-Journalist.
Das Problem ist nicht, dass die GKI intelligent wäre – das Problem ist, dass Leute glauben, sie wäre es.
Hier ein bisschen was zu Heißrotte im Komposthaufen: https://www.sbazv.de/fileadmin/user_upload/PDF/Infomaterial/Abfallflyer/Kompost/kompost.pdf
Hier noch etwas mehr: https://fryd.app/magazin/heisser-kompost
Man kann mit gutem „Prompten“ wirklich einen signifikanten Unterschied bei GKI erzielen. Wie man gute GKI Prompte macht, kann man mit AKI lernen…
Interessante Diskussion.
Ob die generative KI nur Mist produziert, oder eine Modeerscheinung ist, die wieder verschwindet, darüber reden wir vielleicht besser nochmal in 10 Jahren.
Da fragen wir dann mal die arbeitslosen Schundromanschriftsteller, die arbeitslosen Dutzendware Drehbuchautoren, die Produktefotografen, die heute schon schon dank Rendering zu beissen haben usw.
Ein echter Fotokünstler wird sich wohl keine Sorgen machen müssen, aber alle anderen…
Ist wie bei Möbel: ein paar wenige produzieren sehr teure handgefertigte Möbel für gut betuchte, der Rest kauft bei Ikea oder dem Billigdiscounter Massenware.
Was wir heute an GKI sehen, ist erst der Anfang. Ein Kind läuft auch noch wacklig nach seinen ersten Schritten, aber macht exponentielle Fortschritte und rennt in Kürze umher.
Ist wie beim autonomen Fahren: ja, schon lange wird davon gesprochen und Zweifler spotteten schon, weil die Entwicklungskurve laaaange sehr flach war, nun zieht die Kurve langsam nach oben und es fahren die ersten Autos offiziell autonom in Städten. Noch etwas wacklig, aber schauen wir doch mal, ob wir in 10 Jahren auch noch darüber lachen…