KI und (k)ein Ende?

Thomas schickt mir ja immer mal wieder Artikel zu KI, meistens kommentarlos. Die meisten erspare ich euch, aber der hier ist ganz interessant: Nach einer internen Untersuchung von OpenAI wird die KI immer schlauer und lügt den Testern die Hucke voll. Etwa ein Drittel aller Antworten zu Personen des öffentlichen Lebens sind gelogen – und bis zu vier Fünftel der Antworten auf Wissensfragen. Da “Lügen” so ein hartes Wort ist, sagt man “halluziniert”.

Man hat also mit ungeheurem Aufwand an Manpower (die Rede ist von bis zu 435 Millionen “Klickworkern”, von denen ein Großteil für einen Hungerlohn die KI trainieren) und Energie – die Rede ist von 5% des weltweiten Stromverbrauchs, Tendenz stark steigend – einen durchgeknallten LSD-Konsumenten gebaut, der es schafft, zigtausend dumme Antworten pro Sekunde zu geben.

Das ist eigentlich noch keine Leistung, man könnte einfach nur allen Junkies nen PC geben und schon hat man viel billiger den gleichen Effekt. Die Leistung ist, den ganzen Entscheidern diesen Unfug als technischen Fortschritt zu verkaufen, der es rechtfertigt, Milliarden in die entsprechende Firma zu stecken.

Mittlerweile gibt es Anwälte, die Schreiben von der KI aufsetzen haben lassen und dabei Gerichtsurteile zitiert wurden, die es nicht gibt. Die Rezension von Goethes Schimmelreiter hatten wir hier im Blog ja schon von einem Kommentator erwähnt.

Je mehr “Blogger”, YouTuber und “Journalisten” KI-generierte Inhalte ins Netz stellen – weil ja billig und copyrightfrei – desto rapider degeneriert die Qualität der KI. Wenn dann noch aus politischen Erwägungen die Geschichte umgeschrieben und der galoppierende Schwachsinn von den vermeintlichen Qualitätsjounalisten unkorrigiert multipliziert wird, dann ist innerhalb weniger Wochen Zwei mal Zwei eben Fünf Komma Acht und der Goldene Schnitt und die Drittelregel sind identisch.

Denn es ist ja nicht so, dass die KI von alleine “schlauer” wird. Sie wird mit dem täglich frisch erzeugten Internet-Content gefüttert. Und die Leute, die tatsächlich schlaue Dinge schreiben, die blockieren die KI-Bots. Und der Rest, der bereits halluziniert wurde, dient als Futter für weiteren Quark.

Was kann man dagegen machen? Alles löschen und nur noch dreimal überprüfte, gute Quellen analysieren? So hat das mal der Brockhaus-Verlag gemacht. Das hat Geld gekostet und jeder, der noch einen echten Papier-Brockhaus hat, kann sich glücklich schätzen. Aber dann braucht man keine KI. Dann muss man den Kindern nur wieder beibringen, wie man ein Lexikon bedient.

Und ja, wenn da ein Querverweis steht, dann hilft es nicht, da drauf zu drücken – da muss man den Arsch aus dem Sofa bewegen und sich den entsprechenden Band aus dem Regal holen.

Das Titelbild stammt von Aria, der “KI” von Opera

10 Replies to “KI und (k)ein Ende?”

  1. Wenn eine rein auf sprachlicher Wahrscheinlichkeit basierende Maschine Sätze zusammenstellt, dann kann, muss es aber nicht sein, dass das Ergebnis mit real belegbare Fakten korreliert.
    Hat eigentlich schon mal jemand eine KI wegen Verleumdung und übler Nachrede verklagt?
    Wer haftet da? Der Betreiber, die Trainer, der Prompter selbst?

    1. Das Problem ist, dass man derzeit von den statistischen Wahrscheinlichkeiten weggeht und “Reasoning-Modell” verwendet. Also Modelle, die mit mehrstufigen Verfahren arbeiten und angeblich “Näher am menschlichen Denken” sind sollen. Diese Verfahren sind aber noch viel fehleranfälliger als die alten, statistischen Verfahren. Denn wenn in irgendeiner Stufe ein Fehler auftaucht, multipliziert der sich im weiteren Verlauf. Auch das ist ähnlich dem menschlichen Denken. Wenn man einem Menschen beibringt, dass es zwei unterschiedliche Sorten von Menschen gibt – die “Guten” und die “Bösen” – dann kann im Folgenden nichts Vernünftiges mehr rauskommen.

  2. Laut einem Artikel von letzter Woche in der Süddeutschen Zeitung gab es kürzlich eine Kurzstudie, die besagt, dass 3 von 4 Deutsche den Antworten von Chat GTP und Co vertrauen.

    Es gibt also noch seeeeeehr viel Aufklärungspotential, um es mal diplomatisch auszudrücken…

    Und dies in einer Zeit, wo die allermeisten grossen Unternehmen schon mit KI Tools arbeiten oder sie gerade am implementieren sind.
    Es kommen spannende Zeiten auf uns zu.

  3. Ja, viele scheinen zu vergessen (oder zu ignorieren) dass KIs wie ChatGPT primär generative KI mit einem Large Language Modell sind. Und um die sprachliche Fähigkeiten und Gewandtheiten zu erlangen diese eben mit Inhalten trainiert wurden. Nur dass eben diese Inhalte keine Wissensdatenbank darstellen und folgich Aussagen daraus auch nicht vertraut werden darf und kann.
    Zum Formulieren von Texten basierend auf Inhalten, die ich vorgebe, funktioniert das ganz gut. Halluzinationen finden dabei so gut wie nicht statt, denn ich gebe ja den Inhalt vor.

    1. So, das eben geschriebenen als Beispiel noch etwas förmlicher von der KI formulieren lassen 🙂 :’
      “Viele Menschen scheinen zu übersehen oder zu ignorieren, dass KI-Modelle wie ChatGPT primär generative Künstliche Intelligenzen sind, die auf ein umfangreiches Sprachmodell zurückgreifen. Diese Modelle wurden darauf trainiert, sprachliche Fähigkeiten und Ausdrucksvermögen zu entwickeln, indem sie mit einer Vielzahl von Inhalten gefüttert wurden. Es ist jedoch wichtig zu betonen, dass diese Inhalte keine verlässliche Wissensdatenbank darstellen. Folglich dürfen und können die daraus resultierenden Aussagen nicht uneingeschränkt als wahr angesehen werden.

      Beim Verfassen von Texten auf der Grundlage von vorgegebenen Inhalten erweist sich diese Technologie als durchaus nützlich. In solchen Fällen treten Halluzinationen kaum auf, da der Inhalt von mir vorgegeben wird und die KI sich strikt an diese Vorgaben hält.”

        1. Ich behaupte mal, dass über drei Viertel der Bevölkerung den Duktus in diesem Text nicht erkennen würden. Und da liegt der Hund begraben…

  4. Wenn nahezu jeder mit drei Mausklicks und Mithilfe der KI etwas erreichen oder erstellen lassen kann, dann hat das letztlich auch genau den Wert von drei Mausklicks. Wenn die Inhalte dann noch nicht einmal stimmen, dann ist der Wert sogar noch geringer.

    Wir befinden uns in einer (hoffentlich) kurzen Übergangszeit, in der wir noch die Illusion haben, dass ein KI-generierter Text einen Wert hätte, der größer als die zu dessen Erstellung nötigen drei Mausklicks wäre. Diese Illusion wird nur so lange halten, bis kaum noch jemand die KI-generierten Inhalte konsumieren möchte.

  5. Das ganze erinnert mich an die EDV-Einführung vor über 40 Jahren. Da wurde dann gemacht, was der Computer ausgespuckt hat, auch wenn es der größte Blödsinn war. Es hat ne Weile gedauert, bis man erkannt hat, dass das Prinzip MiMo (Mist in – Mist out) bestens funktioniert. Dann hat der gesunde Menschenverstand wieder übernommen und Mitdenken war wieder gefragt.

    1. Die Intelligenz des Lochkarten-Charmes war zu der Zeit noch überschaubar – ebenso die Verbreitung von “PCs” ohne Internet 😉
      Mitdenken ist zugestanden heut im besonderen Sinne äußerst gefragt, nicht nur von KI-Anwendern die unsere analoge Ära kaum mit erlebt haben – vor allem wenn die Komplexität der KI Akzeptanz exponentiell entgleitet.

      Dieses zwanghafte Füttern von “Maschinen”, das Loslassen des “KI-Segens” auf den ahnungslosen Pöbel und das unkritische Hinnehmen kaum mehr durchschaubarer Regulierungen erzeugt in mir bereits jetzt schon Magenkrämpfe wenn ich an mögliche Konsequenzen denke…

Leave a Reply

Your email address will not be published. Required fields are marked *