Ich habe es ja schon mehrfach thematisiert: KI gibt Antworten. Was davon stimmt, was davon blanke Erfindung ist – das weiß niemand, nicht mal die KI. Tests haben 50 bis 60% Ausfälle attestiert. Da man ja nicht weiß, ob die Antwort, die man gerade bekommen hat, richtig ist – man fragt ja meistens nicht, wenn man die Antwort schon kennt – ist die Antwort völlig wertlos. Eine Antwort sollte mit mindestens 95% Wahrscheinlichkeit richtig sein, sonst ist würfeln im Zweifel zuverlässiger.

Nun sind Helden auf die grandiose Idee gekommen, Wikipedia-Artikel von der KI schreiben zu lassen. Komplett samt plausibel wirkender, aber falscher Quellenangaben. Nach ersten Untersuchungen enthalten bereits mindestens 5% aller englischsprachigen Wikipedia-Artikel, die im Monat erstellt werden, KI-Texte. 5% pro Monat. Tendenz steigend. In Deutschland sind wir schon bei 2%. Nachdem pro Tag in der deutschen Wikipedia 300 Artikel erstellt werden, bedeutet das, dass im Augenblick etwa 200 Artikel pro Monat von der KI geschrieben werden. Bei einer Fehlerquote von 50% sind das 100 Artikel mit blühendem Unsinn pro Monat. Und hier geht es nur um neue Artikel. Was die KI bei alten Artikel anrichtet oder bei Artikeln, bei denen das nicht auffällt, ist noch gar nicht erfasst.

Nachdem die KI ja die Wikipedia als verlässliche Quelle verwendet, ist bereits die Datenquelle der KI nun durch KI versucht. Das Wissen degeneriert in atemberaubender Geschwindigkeit.

Es ist abzusehen, dass die KI wieder abgeschaltet wird. In den USA schmeißen die Firmen die KI ja schon wieder raus. Hier im lokalen Landratsamt ist sie zwar mittlerweile drin. Aber es ist die Frage, wann sie die wieder rauswerfen. Böse Zungen könnten ja sagen, dass die KI in der Verwaltung auch nichts mehr schlimmer machen kann. Aber wenn man dann Briefe bekommt mit Verweis auf nichtexistente Paragraphen, die man dann googelt und nicht kapiert, was jetzt ein Paragraph über Straßenausbaubeiträge mit der Müllabfuhr zu tun hat, dann wird es halt etwas schwierig.

Das Problem ist ja dann, dass der Bürger sich nicht auf halluzinierte Paragraphen berufen kann.

Allerdings würde die flächendeckende Einführung von KI in Redaktionsstuben und Parteizentralen durchaus einiges erklären.

Das Titelbild ist übrigens keine KI. Das ist simples, händisches Composing aus zwei Bildern. Klassisch.

2 Replies to “Wi – KI -pedia”

  1. Es ist die Pest. Ich habe seit meinen Examina nicht mehr so viel gelesen, wie aktuell. Damals nannte sich das “Fußnotenkontrolle” und ob das, was im Text erschien auch tatsächlich aus dieser und jener Quelle kommt, die damit in Zusammenhang gebracht wurde.
    Ist wieder soweit und es geht soweit, ob die “Quelle” überhaupt rein thematisch etwas mit der Anfrage zu tun hat. Zum Kotzen. Zum Einsatz in der öffenltichen Verwaltung sage ich mal besser gar nichts. Sollte meine Anwaltszulassung reaktivieren, irgendwie meldet mein Urin, dass da nochmal was geht …

    Suchanfragen haben bei mir mittlerweile pauschal mit dem Anhang -ai -“Zusammenfassend lässt sich sagen” -faq -“f.a.q.”, damit die von den Kaspern zusammengestoppelten Sachen wenigstens halbwegs draussen bleiben. Und bei einem Ergebnis gucken, ob vorne im Text gleich ein Inhaltsverzeichnis kommt (macht kein normaler Mensch und wenn, dann können die ein- und ausgeklappt werden oder stehen in einem Extrakasten oder am Rand und laufen mit der Seite mit), dann ob hinten eine “Zusammenfassung” kommt – wenn wer sowas macht, dann sind Zusammenfassungen eigentlich ganz vorne … oder tl;dr und auch ganz vorne – und natürlich diese “Lernkontrollen” in vorm fon fakk-Listen … eins a Kaspergeschreibsel und damit schlagartig zeitintensiv, weil Vertrauen in den Inhalt schlagartig aufgrund Erfahrung wie weggeblasen.

    Schlimm ist, dass dieses AI-Gefasel mittlerweile in den allgemeinen Sprachgebrauch Einzug hält. Kann man echt nur hoffen, dass diese Blase demnächst mal “plopp” macht, weil der return of invest eine Katastrophe ist.

  2. Nein Reinhard, es ist nicht abzusehen, dass die KI wieder abgeschaltet wird. So meine Spekulation.

    Schwierig für mich zu beurteilen, wenn medizinische MRT-Aufnahmen von der KI kommentiert werden und der Kommentar für die Fachärzte nicht interpretierbar ist. Aber dann ist die KI-Beurteilung strikt getrennt erkennbar.

    Eigentlich ist es keine Lösung – aber nachdem Wikipedia-Texte von mir vor Jahren regelmäßig gelöscht wurden, korrigiere ich Beiträge nicht mehr. Als Zeitzeuge und in einem engen Teilgegiet historischer Experte kann ich nicht auf vorhandene Veröffentlichungen verweisen. Das war noch vor KI – aber jetzt rege ich mich nur noch gemäßigt auf, wenn zu historischen Personen Blödsinn veröffentlich wird. Auf gelegentliche Nachfrage erhahre ich dann (Antworten sind selten), dass KI assistiert hat.

    Richtig aufwendig für den eigenen Arbeitsaufwand wegen der erforderlichen korrektur wird es, wenn z. B. Energieversorger vermutlich KI einsetzen und als Adressat und in der Anrede angeben “Leerstand Geringfügig” .
    Oder wenn Telefon-KI den Namen des gewünschten Firmen-Kundendienstmitarbeiters als Anrufernamen speichern oder Telefonnummern laufend falsch zuordnen.

    Erheiternd für mich, wenn Adobe anbietet, eine umfangreiche Bedienungsanleitung von weit über 100 Seiten verständlich zusammenzufassen. Einfach lächerlich. Gut wäre aber, wenn die KI die in der Anleitung nicht enthaltenen Fehlercodes korrekt fantasierenn könnte, was ich mir entgehen lasse 😉

    Aber die mittlerweile etwas in Verruf geratene Nachfolgefirma unseres geschätzten Herstellers hat vermutlich in ihrem Werbeposting bei der Abbildung mit dem fliegenden Flamingo wohl keine KI eingesetzt und ganz menschlich links unten einen Sensorfleck (?) übersehen. So selten ich in diese Werbemails sehe, diesmal schmunzelte ich.

    Eckhard

Leave a Reply to Eckhard Cancel reply

Your email address will not be published. Required fields are marked *