Ich habe mich ja hier schon des Öfteren über KI lustig gemacht. Gerade ChatGPT ist ja ein Scheunentor – und es gibt Leute, die sich damit vergnügen, dem Blechdepp noch mehr Blödsinn beizubringen. Denn – Überraschung – der “lernt” dazu. Ich habe ihn mal nach dem Buch “ECCFU” gefragt, geschrieben von Emil Ule und Simon Fichte. Von 1999. Das Buch hatte auch einen Auftritt in der WDR-Computernacht und steht im Nixdorf-Museum in Paderborn. Kannte er zuerst nicht. Ein paar Nachfragen später kann er sich an ein solches Buch erinnern – und zwar “ECCFU – Die Revolutionäre Kraft” von Simon Fichte. Und spuckt dann sogar eine Inhaltsangabe aus. Der Titel stehe für “Electron Capture Controlled Fusion” und handele von einer neuen Technologie um aus der “Fusion von Wasserstoff” Energie zu erzeugen. Leider steht ECCFU tatsächlich für “Eros Cybertainment Corporation Fun Unlimited” und die Geschichten handeln von einer Firma, die Cybersex-Anzüge und die dazu passenden Spiele herstellt – und ganz nebenbei von KI.
Ich habe ihn mal eine Biografie von mir ausspucken lassen – ich bin bekannt für meine beeindruckenden Landschafts- und Porträtaufnahmen und wurde entweder am 23.5.1978 in Berlin geboren oder am 7. Juni 1965 in München. Auf jeden Fall bin ich eine beeindruckende Persönlichkeit. Das beruhigt mich.
Fefe hat mal anschaulich erklärt, was das Problem an “KI” ist. Eine “KI” ist eine Liste mit Zahlen. Eine sehr, sehr lange Liste. Für diese Liste von Zahlen gibt es keinen Programmcode, weil die KI nicht programmiert, sondern “trainiert” wird. Diese Liste schreibt die KI selbst. Das ist der Trick daran. Wenn in der Liste Mist drinsteht, dann kann dieser Mist nicht aus der Liste gelöscht werden, weil nur die “KI” “weiß”, was die einzelnen Zahlen bedeuten. Man kann also nur zwei Dinge machen: warten bis die KI Mist macht und ihr dann genau diesen Mist verbieten – was voraussetzt, dass da Leute sitzen, die den ganzen Output der KI auf Plausibilität prüfen, was bedeutet, dass man weit mehr Leute braucht um die KI zu kontrollieren, als die KI ersetzen könnte -oder man schaltet den ganzen Mist ab und trainiert wieder neu – und hat dabei keinerlei Gewähr, dass es das nächste Mal besser läuft.
Warum thematisiere ich den Quark schon wieder: Ein befreundeter Fotograf – einer von den richtig Guten – hatte gerade ein paar Tage keinen Insta-Account mehr, weil die KI der Meinung ist, er hätte irgendwas Böses getan. Denn “Meta” hat ja jetzt KI, da braucht’s keine Leute mehr, die sich die Sachen ankucken. Wie war das? Um etwas richtig zu verkacken, braucht man einen Computer….
Es gibt Leute, die sich beruflich darauf verlassen, dass sie einen Insta-Account haben. Gerade Fotografen erzählen “Uuuuunbedingt! Ein Mussssss!”. Ich würde mich da ehrlich gesagt nicht mehr drauf verlassen, dass der morgen noch zugänglich ist…. Denn, siehe oben, die “KI” wird nicht “besser”. Sie lernt jeden Tag nur mehr Quatsch.
Zum Beispiel das hier:
output chatgpt >nul
Hallo Reinhard,
das siehst Du mal wieder, über KI erfährst Du Dinge, die Du sonst nie erfahren hättest. Z.B. dass Du einen wunderschönen Blog über Schreibkultur hast. 🙂
Einen schönen Start in die Woche wünscht
Thomas
… warten bis die KI Mist macht und ihr dann genau diesen Mist verbieten …
Nennt man beim HomoSap Erziehung, nicht? Bin ja nicht Vater, aber habe schon davon gehört dass dafür ein gewisser Aufwand zu betreiben sei …
Da gibt es, soweit ich das verstehe, einen grundlegenden Unterschied: bei der Erziehung geht das Verbot in den Lern-/Trainingsprozess ein, bei der KI ist es ein nachträglich angeflanschter “Filter”. Und auch bei der Erziehung ist das Ergebnis nicht immer das Gewünschte bzw. voraussagbar – aber das ist dann einer von Millionen bzw. Milliarden Fällen. Bei der KI werden “Erziehungsergebnisse” von einigen wenigen Konzernen (und vielleicht bleibt am Ende nur ein einziger Monopolist übrig) auf die gesamte Menschheit losgelassen bzw. sollen allen Menschen als Grundlage für deren Handeln und Entscheiden dienen.
”Die KI” wird hier mal wieder gleichgesetzt mit neuronalen Netzen. Aktuell ist das das heiße Thema bei der Anwendung von KI, vor allem weil inzwischen die Rechner groß und schnell genug sind, dass man damit praktische Probleme bearbeiten kann (geben tut es die Idee ja schon ziemlich lange). Allerdings sind neuronale Netze bei weitem nicht die einzige Methode, wie man sich an KI annähern kann. Andere Methoden funktionieren anders und haben die Macken von neuronalen Netzen nicht (aber dafür ihre eigenen Macken).
Die Situation ist aktuell so, dass man einen funktionierenden Hammer gefunden hat und deshalb plötzlich alle möglichen Probleme anfangen auszusehen wie Nägel. Für manche Probleme wäre z.B. ein Schraubenzieher besser, aber ein funktionierender Schraubenzieher existiert noch nicht – also muss der Hammer herhalten, selbst wenn das zu vorhersehbar suboptimalen Ergebnissen führt.
mein Werkzeugkasten ist eine KI. Mince alors !
Und in etwas erleuchtender will das jetzt was heissen, abseits der neuronalen cluster ?
bei ARTE lief gerade ein Beitrag
„Algorithmen – Die unberechenbare Gefahr„ …
… passend zumThema!
Wir hatten es jetzt ja schon ein paar Mal. Die KI – egal in welcher Ausprägung – kann einem das Leben erheblich erleichtern. Das fängt an bei der Ai-Rauschunterdrückung von Workspace, die KI-Verschlagwortung von Excire bis hin zur Ai-Objekterkennung unserer Kameras. Es gibt bei technischen Vorgängen sehr oft KI-Systeme, die ausgesprochen hilfreich sind – bis hin zu selbstlernenden Expertensystemen, die dem Kundendienst unter die Arme greifen. (Ich habe sowas mal für den IT-Support einer Versicherung programmiert, allerdings ist das ein Randbereich, weil man da noch nachvollziehen konnte, WARUM er eine bestimmte Lösung ausspuckte.)
Auch ChatGPT kann “vernünftig” eingesetzt werden. Einige verwenden es dazu, Ansatzpunkte für ein Brainstorming zu entwickeln. (Wobei das ausgesprochen gefährlich werden kann, weil ChatGPT nicht kreativ ist. Die Gefahr besteht, dass er, etwa nach einem Drehbuch gefragt, einen Handlungsstrang produziert, den es bereits gibt – eben weil er ja nur Versatzstücke aus dem Netz mehr oder weniger neu kombiniert. Man kann also unwissentlich in ein Plagiat rennen.) Andere verwenden es zum “Rapid Prototyping” für Programmcode. Aber in beiden Fällen kuckt da noch wer drüber, bevor der Output produktiv eingesetzt wird. Ki ist nicht “intelligent”. Und alle, die jetzt davon phantasieren, dass die Roboter bis 2030 die Weltherrschaft übernehmen sind auf dem falschen Dampfer. Und KI ist per se auch nicht gefährlich. Gefährlich sind die Leute, die KI mit Mitteln ausstatten um unbeaufsichtigt Unfug anstellen zu können – und vor allem die Leute, die diese Kästen dann einschalten. Studenten schreiben ihre Hausarbeiten mit ChatGPT? Ich erinnere daran, dass wir von Leuten regiert werden, die mit Vorliebe ihre Doktorarbeiten von anderen schreiben lassen. Ist jetzt der Ghostwriter die Gefahr, oder das Politiker:in, das Betrug völlig OK findet?
Wenn ich mich hier in Sachen KI positioniere, dann geht es mir vor allem darum, dass Menschen glauben, dass KI Menschen ersetzen kann – und dann auch die entsprechenden Menschen durch KI ersetzen. Und gerade diese KI-gläubigen Menschen natürlich überzeugt sind, dass ihr eigener Job durch KI nicht ersetzt werden kann.
Expertensysteme sind eine Art von KI, deren Hauptvorteil gegenüber den aktuell beliebten neuronalen Netzen genau darin besteht, dass man erklären kann, warum ein Expertensystem zu einer bestimmten Antwort kommt. Bei neuronalen Netzen ist das nicht so – man kann sie nur trainieren und dann auf das Beste hoffen. Dafür haben sie den erheblichen operativen Vorteil, dass man nicht versuchen muss, abstraktes “Expertenwissen” aufwändig in Code zu gießen, da die neuronalen Netze ja als “Black Box” direkt von der Eingabe zur Ausgabe gehen; dazwischen stehen nur Berge von Parametern, an denen man sowieso nichts direkt ändern kann. Solange man nur genug adäquat aufbereitete Trainingsdaten hat, ist man (hoffentlich) fein raus. (Wobei das natürlich die Achillesferse von Sprachmodellen ist, die man mit dem “ganzen Internet” trainiert und dann hofft, dass sie Sachen sagen, die stimmen – denn auf dem Internet steht halt auch jede Menge Stuss, und den Stuss von den Sachen zu unterscheiden, die stimmen, ist schon für “natürliche Intelligenz” nicht immer komplett trivial. Wir können das bei Themen, wo wir uns sowieso schon gut auskennen, aber der normale Mensch konsultiert ja das Internet genau für Themen, wo er oder sie sich *nicht* gut auskennt.)
Die Leute, die wegen ChatGPT am meisten um ihren Job fürchten müssen, sind Korrekturleser:innen. Sprachmodelle wie GPT-3 & Co. sind eigentlich dafür gedacht, holpriges Englisch in gutes idiomatisches Englisch zu verwandeln, und das machen sie im Großen und Ganzen auch ziemlich kompetent. Dass man sie auch benutzen kann, um Texte zu *erzeugen*, ist ein Nebeneffekt.
Man darf auch nicht vergessen, dass KI als Wissenschaft gerade mal 70 Jahre alt ist oder so und als Ingenieurdisziplin erst recht noch in den Kinderschuhen steckt. Was da aktuell so vorgeführt wird, ist auf den ersten Blick natürlich ziemlich beeindruckend, aber hat mit “Intelligenz” ungefähr so viel zu tun wie das auswendiggelernte kleine Einmaleins in der zweiten Klasse mit Mathematik. In hundert Jahren werden unsere Urenkel:innen sich höchstwahrscheinlich königlich über ChatGPT & Co. amüsieren, ganz wie wir heute über die Dampfautos des 19. Jahrhunderts.
Danke!
Wobei selbst bei neuronalen Netzen sowohl beim Programmieren der Regeln als auch beim Trainieren i.a. Menschen beteiligt sind.
Ansonsten ist Ki halt nach Cloud das nächste Buzzword, mit dem die IT Branche und viele andere Geld verdienen wollen.
Und DAS ist, der Punkt über den wir uns wirklich Sorgen machen müssen. In Zukuft werden Entscheidungen durch Expertensysteme getroffen, Texte, Bilder und Videos generiert werden und zwar ohne Kontrolle des eingesparten Personals.
Und wenn man überlegt, was Menschen schon heute alles glauben, und welches ungute Potential da existiert, kanns einem schon schlecht werden.
Andererseits eröffnet KI (also echte, nicht bloss ein den Ki Mantel tragendes popliges Progrämmle) geoaart mit entsprechender Rechnerleistung und Nutzungsintension eben auch unglaublich viele tolle Möglichkeiten, siehe Alphafold und co. https://www.deepmind.com/research/highlighted-research/alphafold
Wer sich noch etwas mehr einlesen möchte: in Spektrum 5.23 findet sich eine ausführliche Auseinandersetzung mit ChatGPT und auf spektrum.de gibt es ein Dossier “Künstliche Intelligenz”.
Viel Spaß beim Lesen!
Joachim
Im BYTE Magazin vom Nov 1984 gabs einen Artikel “Nonsense imitation can be disconcertingly recognizable”, etwa Unsinnige Imitation kann verstörend erkennbar sein, über Textanalyse mittels Häufigkeit von Buchstabengruppen (2-,3-,…5-er Sequenzen) und nachfolgender Textsynthese mittels Zufallsgenerators.
Ich hatte mir die Mühe gemacht das kurze Pascal Programm namens ‘Travesty’ in den Apple //e zu tippen und mit Vor- und Nachnamen aus dem regionalen Telefonbuch zu füttern. Die Resultate ware tatsächlich ‘verstörend erkennbar’!
Langer Rede kurzer Sinn: nach 40 Jahren IT Fortschritt läuft derselbe Ansatz unter neuem Namen KI statt Travesty und liefert verstörende Resultate. 🙂
Gruss aus Graubünden
Chris