Und ich bin selber reingetappt obwohl ich hier so oft geschrieben habe, dass KI Mist ist.

Man lässt KI Texte übersetzen und schaut sogar nochmal drüber und korrigiert den gröbsten Unsinn (ja, deepl hat noch dümmeres Zeug übersetzt, als in den Artikeln drinsteht.) und trotzdem rutschen einem haarsträubende Fehler durch. Warum? Weil es so schön einfach ist. Man denkt, man könne mal schnell große Mengen übersetzen und dann nur mal kurz drüberkucken, fertig. Nein, man muss den Text genauso genau lesen, als hätte man ihn selbst geschrieben. Genauer sogar, weil die KI auf bescheuerte Ideen und völlig sinnlose, aber grammatikalisch und orthographisch korrekte Texte kommt, die man selbst nicht mal im Vollsuff von sich gegeben hätte.

Seit vier oder fünf Jahren schreibt KI journalistische Texte. Angefangen hat das damit, dass man um Sportergebnisse den Blabla vom Computer schreiben ließ. Die resultierenden Texte waren nur marginal schlechter als der Sumpf, den die Sportredaktion verzapfte, wenn niemand vor Ort und einfach nur ein 3:0 in der Kreisklasse in Worte zu fassen waren. Dann fing man an mit standardisierten Texten zu wirtschaftspolitischen Ereignissen. Aktienkurse, Wetter und politische Zusammenkünfte auf Dorfebene. Das hat alles wunderbar funktioniert, weil es völlig wurscht war und die Leser am Land bereits daran gewöhnt waren, dass in der Zeitung Mist drin steht.

Was ist nun passiert? Diese von KI geschriebenen Texte haben sich dadurch, dass sie von KI gelesen und für das Sprachmodell verwendet wurden, „fortgepflanzt“.

In einer Universität in Georgetown, Washington D.C. stieß nun die Professorin Kathleen Moriarty (nicht verwandt oder verschwägert mit dem Oberschurken von Sherlock Holmes) auf ein ekliges Problem. Die Studenten in obiger Uni stolpern mittlerweile bei ihren händischen Recherchen über vermeintlich vertrauenswürdige Quellen, verwenden sie, die Professorin, die noch Bücher gelesen hat, stellt fest, dass das Mist ist, überprüft die Quellen und merkt, dass in den Quellen bereits ein Mensch von einer KI abgeschrieben hat, die von einer KI abgeschrieben hat, die vor zwei Generationen irgendwas erfunden hat.

Wir sind also mittlerweile so weit, dass aktuelle Informationen aus dem Internet selbst aus vermeintlich sicherer Quelle per Definition bereits unzuverlässig sind. Selbst wenn da noch ein gutwilliger Mensch saß und den Text geschrieben hat, können die Quellen, auf die er sich beruft, bereits KI sein – und angesichts der Geschwindigkeit, mit der sich das fortpflanzt, kann der KI-Fehler bereits vier oder fünf Generationen vorher „passiert“ sein.

Und da ja bereits der Buchmarkt mit KI-generierten Büchern überschwemmt und und selbst händisch geschriebene Bücher oft auf Internetrecherchen basieren, wird das Problem täglich schlimmer. Dazu kommt noch, dass die Wikipedia kaum noch gedruckte Quellen akzeptiert, weil diese ja von den Autoren nicht Online recherchiert werden können und selbst viele Mainstreammedien Archive hinter eine Paywall stecken. Selbst das letzte verbliebene „Nachschlagewerk“ degradiert deshalb unweigerlich zur KI-Echokammer.

Und wir reden hier noch nicht von absichtlichen Fake-News. Alle Menschen in dieser Informationsverlustkette sind guten Willens. Der Fehler wurde gemacht, als man dachte, man könne Journalisten von Routinearbeiten entlasten.

Mittlerweile werden ganze Redaktionen geschlossen und der verbleibende Rest ist damit beschäftigt, KI-Texte Korrektur zu lesen, was, wie ich ja mit den Maitani-Texte demonstriert habe, selbst bei wirklich gutem Willen auf Dauer nicht möglich ist.

Houston, wir haben ein Problem…

17 Replies to “Die KI-Falle”

  1. Quelle : „Internet“

    Die Pest werden wir nicht mehr los und sie diffundiert in alle Bereiche. Sänk ju vor traihing to träwwel wiss Deutsche Bahn

  2. Die KI-Inzucht wird zu dem führen, zu was Inzucht mittelfristig führt: verkürzte Lebenserwartung. Die KI Leute schiessen sich schlussendlich ins eigene Bein, Dies ist zumindest meine Hoffnung.

  3. Housten, wir haben kein besonderes Problem. Jede und jeder kann heute wissen, das Information aus dem Internet (Texte, Bilder, Filme) unsicher sind und im wesentlichen zur Unterhaltung/Werbung produziert wird. Wissenschaftler:innen dagegen zitieren nur Fachartikel mit peer review (von einigen anderen Wissenschaftlern unabhängig korrigiert) und ernsthaft Fotointeressierte lesen blogs wie diese, weil die Hoffnung besteht, dass auch andere Fachleute hier lesen und dann gerne alle Fehler aufdecken – sowas kann eine stabile Meritokratie sein. Solange die Kommentatoren hier noch keine bots oder menschliche gedungene Schergen sind, lese ich hier also gerne – wenn sich das ändert, zieht man weiter. Also: Qualität ist wichtig – lieber einmal mehr Korrektur lesen, damit die Meriten bleiben 🙂

    Problematisch wird es, wenn wir der KI Dinge im wirklichen Leben überlassen – Rechtsanwälte, Politiker, Mediziner und Lehrer lassen sich vergleichsweise gut durch KI ersetzen, weil da viel standardisiert ist. Autonomes Fahren wird schon schwerer, Pflegeberufe und vor allem die Reinigungsaufgaben bleiben wohl noch lange in Menschenhand. Bei den kreativen Berufen kommt es dagegen darauf an, was die Zuschauer bevorzugen – das unterliegt der Mode. Hier sehe ich die Gefahr für Fotographen: Die Idee „das kann ja jeder mit der KI im Telephon“ könnte den Preis drücken. Aber es gibt immer eine passende Nische für jeden Menschen…

    1. Nein Jens,

      um rasant an der Forschungsfront zu sein werden durchaus Vorabveröffentlichungen genutzt – und nicht zu allen Wissensgebieten gibt es die Notwendigkeit/Möglichkeit zu peer reviews.
      Für mich als nicht universitätszugehörigen stellt die privatrechtliche Digitalisierung historischer und die digitalisierte Publikation aktueller wissenschaftlicher veröffentlichung eine bedeutende Hürde dar.
      Öfters, aber nicht immer gelingt es innerhalb eines Jahres, dennoch über Beziehungen (heute beschönigend Netzwerken genannt) an die Publikationen zu kommen – die sich dann sehr oft als irrelevant für die eigene Arbeit herausstellen.

      Meine früheren Webpages mit Digitalisaten (zumeist vor dem 2. WK, 19. Jh. – oder aus der eigenen politischen Arbeit vor Jahrzehnten) habe ich wegen der geänderten Rechtslage gelöscht: Ich bin nicht bereit, für Digitalisate von in meinem Besitz befindlichen Büchern usw. oder von mir mit verfassten Zeitungen/Broschüren Lizenzabgaben zu zahlen.

      Irgendwann möchte ich mal eine studierende Person meines Umfelds bitten, die KI einen Artikel zu bestimmten historischen Fragestellungen abzurufen. Ich vermute große Heiterkeit bei der Lektüre.

      1. Doch Eckhard, peer reviews sind die wesentliche Basis für Vertrauen in der Wissenschaft. Die kostenlosen preprint Server (arXiv etc.) sind zwar interessant und hilfreich aber bewusst nicht Teil des Stands der Wissenschaft, da noch ungeprüft.
        Die Hürde, die Du nennst, ist nur eine finanzielle („pay wall“). Das ist bei uns gesellschaftlich so eingerichtet (Steuerzahler zahlt nur für die universitäre Nutzung/Bildung/Forschung) – das könnte man natürlich anders regeln (Steuerzahler zahlt das für alle), wenn das denn die Leute wollen würden. Da gibt es scheints kein gesellschaftliches Interesse für – man zahlt lieber Subventionen dafür, dass die Chinesen billige deutsche Schweine und Hühner bekommen oder für anderen für uns schädlichen Kram. Das die Rechte für Texte so viel länger wirken als z.B. Patente und das auch noch kostenfrei für die Urheber finde ich auch ungerecht (jetzt so als Patenthaber) – aber so findet sich immer etwas, was man will und nicht bekommt, das mittelt sich meist weg.

    2. „Rechtsanwälte, Politiker, Mediziner und Lehrer lassen sich vergleichsweise gut durch KI ersetzen“ Ich weiß ja nicht genau, mit welchen Rechtsanwälten, Medizinern und Lehrern Du Umgang pflegst. Aber die, die ich kenne, sind das nicht.

      1. Ach ich kenne da einen Rechtsanwalt, den hätte ich liebend gerne durch eine KI ersetzt – schlimmer wäre das auch nicht geworden und bei so manchen Politiker kann man sich auch nicht vorstellen, dass die KI da schlimmer wird (ich denke da gerade an einen Ami….). Aber die besseren – oder von mir aus auch „weniger schlechten“ – Politiker sind klar nicht durch KI ersetzbar.
        Medizinern haben schon ausgefeilte KI-basierte Systeme zur Seite (vor allem im OP) die wirklich hilfreich sind – nur der Chef im Saal ist immer noch ein Mensch. Und Lehrer haben inzwischen zunehmend das Problem, dass die Kids KI-Systeme besser beherrschen und einsetzen als sie – da wäre eine entsprechende Hilfe durchaus denkbar – aber auch hier: der Lehrer selbst ist unersetzbar.

        Andy
        imersatzmodus

        1. Ich frage mich manchmal, ob irgendjemand die Artikel liest, die ich schreibe. Da wird ein Artikel einer Professorin verlinkt, die beschreibt, dass es eben genau NICHT geht. Dass die Kids vielleicht KI dazu veranlassen können, irgendwas zu produzieren. Aber sie sind nicht einmal fähig, festzustellen, wenn die KI Mist produziert. Und das sind Studenten einer Universität, keine Grundschüler.
          Und da will mir jemand erzählen, „KI“, die bereits jetzt unser Wissen degradiert, nach wenigen Monaten, wäre in irgendeiner Weise was „Positives“ und würde den Planeten retten? Diese Studenten sind die Wissenschaftler von morgen, die dann „Peer Reviews“ machen. Was soll da dabei rauskommen? Wer soll denn den Mist noch kontrollieren, wenn alle bereits mit Müllwissen aufgewachsen sind? Wir verlieren selbst das Geschichtswissen in atemberaubender Geschwindigkeit.
          Ich stelle ja bereits hier fest, dass es weit interessanter ist, zu einem bestimmten Thema vorgegebene Gedankenmuster wiederzukäuen, als sich mit den Fakten auseinanderzusetzen.

          Die „KI“ in bestimmten Fachbereichen sind Expertensysteme. Da kann man im Nachhinein auch Entscheidungsbäume a) nachvollziehen und b) korrigieren. (Ich habe Mitte der 90er solche Expertensysteme programmiert.) Bei den augenblicklichen „KI“-Modellen ist das nicht mehr möglich. Man kann lediglich Ausnahmen definieren, die dann in der Ausgabe abgefangen werden. Wenn beim Training irgendwo Mist passiert ist, dann muss das gesamte Training neu gemacht werden in der Hoffnung, dass durch die Änderung des Trainingssets nicht wieder irgendwelcher Unfug passiert. Eine KI zu fragen „Warum hast Du auf den Knopf gedrückt“ ist sinnlos. Einen Menschen kann man das fragen. Will man tatsächlich ein Wesen auf die Menschheit loslassen, von dem niemand weiß, was sie gleich tun wird, niemand eine Kontrolle darüber hat und die sich absolut jeder rationalen Analyse und moralischen Bewertung und Ethik entzieht?
          Selbst der mieseste Rechtsanwalt hat eine Motivation und Gründe für seine Handlungen. Eventuell zu doof, falsche Voraussetzungen, Bildungslücke oder schlechter Tag. Bei einer KI trifft das alles nicht zu. Die macht einfach. Und wenn sie gerade „Lust“ hat, sprengt sie sich auch selbst und die ganze Welt in die Luft – eine „KI“ hat keinen Selbsterhaltungstrieb.

          Zur Ergänzung vielleicht noch: https://visualstudiomagazine.com/articles/2024/01/25/copilot-research.aspx Da haben sie untersucht, was KI-unterstützte Programmierung für Auswirkungen hat. Die Folge: Die Codequalität sinkt, so dass der Code innerhalb kurzer Zeit völlig unwartbar wird. Die erste Zeit kann Code mit unerreichter Geschwindigkeit erstellt werden – und irgendwann bricht die ganze Scheiße zusammen. Kapitalismus pur. Schnell fette Gewinne machen und irgendwer wird den Mist hinterher schon wegräumen.

          1. Auch um schlechten, schnell unwartbar werdenden Code zu schreiben, brauchen wir keine KI – da könnte ich einige Beispiele aufzählen – mit KI geht es nur schneller….

            Vielleicht sollten wir hier auch unterscheiden, KI ist nicht gleich KI – alles was in diesen Bereich passt in der Bewertung gleich zu setzen geht genauso schief, wie alle Kameras, alle Autos, alle sonstwas … über einen Kamm zu scheren.
            Ja Du findest – und thematisierst hier – immer genau die wunden Punkte, das ist natürlich gut und richtig, aber in der Diskussion geht es dann gleich um alles oder nichts, schwarz oder weiß, ohne Zwischentöne.

            Richtig ist: Entscheidungen müssen nachvollziehbar sein, egal ob sie von einem Menschen oder irgendeiner Art von Computersystem getroffen wurden. Darauf wird bei „wichtigen“ Systemen (also da wo es direkt um Leib und Leben geht) auch sehr geachtet. Das sieht dann zwar etwas anders aus, als wenn man hinterher einen Menschen befragt (der aber auch oft genug „weiß nicht (mehr)“ antwortet), aber eine Nachvollziehbarkeit gibt es i.d.R. dann in Form eines Protokolls – und das meist zuverlässiger als das Gedächtnis eines Menschen.

            Nur werden solche Systeme die Texte verfassen eher nicht als „wichtig“ angesehen – was aber an den Menschen drumherum liegt. Denn eigentlich sind auch die wichtig, vor allem wenn dann auf solche Texte aufgebaut wird.
            Und ja, dass alles ist Kapitalismus: alles, wirklich alles wird genutzt um jetzt sofort schnellen Profit zu machen – und oft genug nach dem Motto: nach mir die Sintflut!
            Das hat durchaus System in dem System in dem wir leben….
            (nur sind wir jetzt weit weg vom Fotothema)

            Andy
            improtokollmodus

            1. Das Problem ist, dass ChatGPT – ja, genau dieses Sprachmodell – bereits für die Steuerung von militärischen Tötungsmaschinen verwendet wird. Sie sind also „wichtig.“
              Und ja, Scheiße bauen können Menschen auch, zur Genüge. Aber sie sind dann auch dafür verantwortlich. Oder sollten es zumindest sein.
              Eine KI ist für nichts verantwortlich.

  4. Hallo Jens,
    was meinst Du mit „wirklichem Leben“?
    Einiges ist zweifellos „standardisiert“, aber wer entscheidet, welcher Entscheider im konkreten Fall letztendlich entscheidet?.
    Peer reviews sind in der Rasanz der Forschung tatsächlich das einzige Tool, das mit der Dynamik der Erkenntnisse ein bisschen mithalten kann. Wir sind im März 2020 ratlos vor Patienten mit der Alpha-Variante B.1.17 (Wuhan-Typ) gestanden und haben sie reihenweise verloren. Erst die mühsame Einarbeitung in die ersten Case reports aus China haben uns ein bisschen weitergebracht.
    Nix mit Peer, nix mit Lancet o. ähnlichem.
    Ein Bruchteil der Aufgaben in den von Dir zitierten Berufsgruppen mag durch KI ersetzbar sein, die Qualität ist es nicht. Das Gegenteil ist der Fall. Das entscheidende Tool in der Experte-Kunden-Beziehung (Anamnese face to face)
    wird dadurch ausgehebelt, dass jeder Antragsteller mit vorgefertigten Meinungen aus dem Netz daherkommt und die wertvolle Zeittriage jeder Beratung sprengt.
    KI wird eine bescheiden Hilfe auf Expertenseite sein, aber es wird der Killer für den Hilfesuchenden.
    Ich wünsche Dir, dass jeder Mediziner, den Du je brauchen könntest, die richtige Schublade der KI trifft.
    Derzeit ist das Dart.

    1. Hallo Werner, mit wirklichem Leben meine ich den Teil, den wir außerhalb des Internets verbringen. Dass wir das Internet in Zukunft mittels KI viel effizienter vollmüllen, ist wohl unstrittig. Daher finde ich Anwendungsmöglichkeiten außerhalb des Internets gerade wesentlich interessanter (und riskanter).

      Ja, Zwischenmenschliches sowie komplexe Handlungen werden weiter eine natürliche Schwäche der KI/von Automaten sein – zukünftige Alleinstellungsmerkmale des Menschen sind daher sicher „Putzen und Knutschen“ und dergleichen. Eine offensichtliche Schwäche des Menschen sind aber Entscheidungen, insbesondere wenn die Auswirkungen nicht sehr kurzfristig sind. In Gebieten mit vorhandener Systematik sind somit die „tiefhängenden Früchte“ für KI Entwickler klar: Schach ist ein besonders einfaches Extrembeispiel, Bildbearbeitung an anderes, Rechtsanwälte, Ärzte (natürlich bis auf Pflege und direkter Patientenkontakt) und Programierer lassen sich schon länger von „Expertensystemen“ maschinell helfen, das geht mit KI jetzt viel leichter. Und bei Lehrern geht es an den Unis schon los mit automatisierten Webinars, später folgt sicher die Oberstufe während Grundschulen und Kindergarten wohl noch lange in Menschenhand bleiben müssen – die Angelegenheit ist da zu unsystematisch und der menschliche Kontakt für das Ergebnis zentral. Die Zukunft wird „interessant“ für den Menschen, insbesondere wenn sich die KI erst mal in Rückkopplung selbst weiter entwickelt in einer Moore’schen exponentiellen Lawine. Aber vielleicht rettet das ja den Planeten und es ist auch nur ein Teil der Evolution. Lassen wir es mal kommen, ob die KI dann schlechter entscheidet als unsere heutigen Entscheider, diskutieren wir dann mit mehr Zeit als heute an den Stammtischen.
      Viele Grüße,
      Jens

      1. Ich bin erschüttert. KI „rettet“ im Augenblick nicht den Planeten, sondern zerstört ihn. Die Sprachmodelle verbraten bereits jetzt 3% der weltweiten Energie. Das ist knapp zehnmal mehr als die Cryptowährungen. Lehrer in der Oberstufe werden durch KI ersetzt? Welche Sorte Menschen sollen da „herangebildet“ werden? Vor der Kiste sitzende, asoziale Wesen, die einen Roboter zum Putzen haben und sich auf Tinder wen zum Knutschen suchen? Und bei denen lediglich die KI feststellt, wenn sie sich gerade aufgehängt oder vergiftet haben? „Schüler Müller, sie haben seit 382 Minuten keine Aktivität mehr gezeigt, ihre drei-Faktor-Authentifizierung läuft ab. Reagieren sie, oder wir müssen den Kontaktbereichsroboter anweisen, ihre Tür aufzubrechen.“
        Wir brauchen nicht weniger Lehrer, wir brauchen mehr! Wir brauchen nicht weniger Mediziner, wir brauchen mehr! Am Patienten. Hausärzte. Menschen! Menschlichkeit!

        Ich pfeif auf den Fortschritt, wenn er denkt, er könne den Menschen ersetzen. Und ja, wir haben eine ferngesteuerte, korrupte Politikerkaste. Aber wenn wir sie durch ferngesteuerte Roboter ersetzen, die man nicht mal mehr abwählen kann, haben wir definitiv nichts gewonnen. Die vierte Macht im Staat ist bereits zu großen Teilen durch KI übernommen worden. Das Resultat ist katastrophal. Wenn es auch noch die anderen drei Mächte erwischt, ist es vorbei mit allem, was auch nur noch grob nach Demokratie riecht.

        1. KI kann uns ganz sicher helfen, den Planeten zu retten – wenn es uns gelingt sie richtig dafür einzusetzen. Nur von sich aus wird sie das nicht machen – aktuell ist es dazu auch noch viel zu viel K und viel zu wenig I. Und selbst wenn da mal die richtige Portion I dabei ist, ist die Frage, ob sie „unseren“ Planeten retten wird, oder doch vielleicht „ihren“ (darüber gibt es ja genügend SF- Geschichten).

          Es bleibt wie immer: an den richtigen Stellen richtig eingesetzt ermöglicht uns die KI (heute schon) Dinge, die wir ohne sie nicht leisten könnten und das wird in Zukunft noch zunehmen.
          Nur leider wird die KI (wie jede andere fortschrittliche Technologie) auch falsch oder gar schädlich eingesetzt und bei den ganzen computerbasierten Systemen ist die Gefahr für so einen falschen Einsatz noch viel Größer, dafür aber weniger offensichtlich als z.B. bei Dynamit (auch eine Erfindung die uns an vielen Stellen vorwärts gebracht hat – aber eben auch sehr viel Schaden angerichtet hat).

          Die ganze Sache mit den KI-generierten Artikeln erklärt natürlich so manchen Text, den ich in letzter Zeit im Internet oder auch in Fachbüchern gelesen habe ….. andererseits habe ich ähnliches auch schon vor 20 Jahren gefunden, da war sicher noch keine KI beteiligt – heißt: der Mensch braucht ganz sicher keine KI um Stuss zu schreiben…. aber mit KI geht es halt einfacher und schneller.

          Andy
          imstussmodus

      2. Hallo Jens,
        Du kennst Dich gut aus im Metier und es wäre interessant, mit Dir persönlich zu diskutieren.
        Du zitierst Schach als „tiefhängende Frucht“ für KI-Entwickler. Schach hat aber mit KI nichts zu tun (war selber Turnierspieler), hier geht es ausschließlich um Rechenpower.
        2006 hat das letzte Match Mensch gegen Maschine stattgefunden (V. Kramnik gegen Deep Fritz) und der damalige WM hat haushoch verloren. Die Stärke heutiger Engines ist immer noch brutale, triviale Rechenleistung, die Rechentiefe weit jenseits des 30. Zuges.
        KI im modernen Sinn aber impliziert zusätzlich zu Rechenpower Kombination, Interaktion, Gewichtung und zukünftig wohl maschinelle Intuition. Auf der Entscheiderseite mag man mit KI gelegentlich nicht falsch liegen, aber wie transportiere ich ein Ergebnis, das hinter fernem Horizont liegt, zum Kunden/Bittsteller/Patient ?
        Das Schlüsselwort ist immer noch Plausibilität und Vertrauen und ob ich das jenseits der 30. Verästelung des digitalen Entscheidungsbaums transportieren kann, wird uns tatsächlich eine neue Gesellschaft zeigen.
        Gruß Werner

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert