Ich hatte mich ja schon in Sachen Fotografie über die Blechdeppen amüsiert und in den letzten Wochen kam ich dann nicht mehr um Chat GPT rum – denn wenn man all den Nerds glauben darf, dann ist meine Spezies der Wortakrobaten zum Verhungern verurteilt. Denn in Zukunft schreiben KI-Bots die Texte.
Bevor ich mich bei Aldi für nen Kassenjob bewerbe, habe ich mir die Konkurrenz mal angesehen. Wer selber mit rumspielen will, muss seine Handynummer hergeben für die 2-Faktor-Authentifizierung. Warum auch immer eine KI genau wissen will, wer ich bin. Vielleicht hätte ich sie das fragen sollen….
Fangen wir mit was leichtem an:
Schreibe mir einen Artikel über die Jahreshauptversammlung eines Kaninchenzüchervereins in Pyrbaum in der Oberpfalz
Am Samstag, dem 27. Februar, fand die Jahreshauptversammlung des Kaninchenzüchtervereins Pyrbaum in der Oberpfalz statt. Die Versammlung wurde im Gemeindesaal von Pyrbaum abgehalten und war gut besucht von Mitgliedern des Vereins sowie von interessierten Kaninchenzüchtern aus der Region.
Der Vorsitzende des Vereins, Herr Müller, eröffnete die Versammlung und begrüßte die Anwesenden. Er berichtete über die Aktivitäten des Vereins im vergangenen Jahr, darunter die Durchführung von Schulungen für Mitglieder, die Teilnahme an regionalen Ausstellungen und die Organisation von Zuchtwettbewerben.
Ein Höhepunkt des Berichts war die Ankündigung, dass der Verein in diesem Jahr eine große Kaninchenausstellung in der Region veranstalten wird. Die Mitglieder zeigten sich begeistert von dieser Nachricht und es wurde beschlossen, einen Ausschuss zur Organisation der Ausstellung zu gründen.
Anschließend wurde der Bericht des Schatzmeisters vorgestellt und genehmigt. Der Schatzmeister berichtete, dass der Verein finanziell stabil ist und in der Lage sein wird, die geplanten Aktivitäten im kommenden Jahr durchzuführen.
Es gab auch eine Diskussion über die Zukunft der Zucht von Kaninchen in der Region. Einige Mitglieder schlugen vor, den Fokus auf bestimmte Rassen zu legen, während andere argumentierten, dass der Verein sich auf die Förderung aller Rassen konzentrieren sollte. Nach einer lebhaften Debatte wurde beschlossen, weiterhin eine breite Palette von Rassen zu fördern und zu unterstützen.
Zum Abschluss der Versammlung wurden die anstehenden Termine und Aktivitäten für das kommende Jahr besprochen. Dazu gehörten Schulungen, Ausstellungen und Zuchtwettbewerbe. Die Mitglieder verabschiedeten sich mit der Vorfreude auf ein erfolgreiches Jahr für den Kaninchenzüchterverein Pyrbaum in der Oberpfalz.
Mal abgesehen davon, dass es in Pyrbaum keinen Kaninchenzüchterverein gibt und die JHVs nie im Gemeindesaal abgehalten werden, denn da gibt’s nichts zu trinken, sieht der Artikel auf den ersten Blick toll aus – ist aber komplett unbrauchbar, weil natürlich keinerlei exakte Daten drin sind. Keine Jubilare, kein kompletter Namen des Vorstandes usw. Das haut Dir jeder Redakteur um die Ohren. Wenn man der KI aber alle Fakten und Namen vorgibt, kann man den Artikel auch selber schreiben. Das Ergebnis von KI sind also – Fake News. Ist Microsoft schon reingefallen, die über ihr MSN mittlerweile die KI unkontrollierten Dünnpfiff schreiben lassen. Redakteure, die den Müll filtern, sind halt teuer.
Aber der Bot soll ja bei technischen Dingen super sein. Also lassen wir ihn mal auf ein bisschen Kameratechnik los:
Kann ich bei elektronischem Verschluss blitzen?
Es ist möglich, bei Verwendung eines elektronischen Verschlusses zu blitzen, jedoch gibt es einige Einschränkungen und Dinge, die beachtet werden sollten.
Ein elektronischer Verschluss ermöglicht es, die Belichtungszeit sehr kurz einzustellen, da er durch elektronische Schaltkreise gesteuert wird, was bedeutet, dass er schneller und präziser gestellt werden kann als ein mechanischer Verschluss. Dies ermöglicht es, bei sehr schnellen Synchronzeiten zu blitzen.
Allerdings, je nach Kamera und Blitz-System gibt es Einschränkungen, da nicht alle Kameras in der Lage sind, schnell genug den Verschluss zu schließen, um die volle Leistung des Blitzes zu nutzen. Es gibt auch Einschränkungen bei der maximalen Verschlusszeit, die verwendet werden kann, wenn der Blitz verwendet wird. Es ist also wichtig, die Anleitung der Kamera und des Blitz-Systems zu lesen, um sicherzustellen, dass die Einstellungen richtig sind und um eventuelle Probleme zu vermeiden.
OK. Damit muss ich niemandem kommen. Das ist so in etwa unteres Forenniveau. Kein Wunder, wenn der Bot mit Texten aus dem Internet trainiert wird. Mal sehen, was er zu Olympus-Spezifika weiß:
Wie funktioniert LiveComposite?
Live Composite ist eine Funktion, die in einigen Olympus-Kameras verfügbar ist und es ermöglicht, bei Langzeitbelichtungen mehrere Aufnahmen zu machen und sie zusammenzufügen, um Bewegungen zu kompensieren und eine klarere Gesamtaufnahme zu erzielen.
Die Funktion arbeitet, indem sie nur die Bereiche des Bildes aufnimmt, die sich seit der letzten Aufnahme verändert haben. So werden nur die Bereiche, die sich bewegen, auf dem Bild sichtbar und die statischen Bereiche werden über die Zeit hinweg kombiniert, um eine klarere Gesamtaufnahme zu erzielen.
Live Composite funktioniert am besten bei Aufnahmen von bewegten Lichtquellen wie Feuerwerk, Lichtstreifen von Autos oder ähnlichen Szenen. Es ermöglicht es dem Fotografen, die Belichtungszeit zu verlängern, ohne dass das Bild überbelichtet wird oder dass sich Bewegungen überlappen und unscharf werden.
Viel gelesen und nichts kapiert. Klarer Fall von Bullshit-Bingo. Da gibt es jetzt KI-Fans, die die Frage ein Dutzendmal stellen und dann die beste Antwort als Beweis veröffentlichen, wie schlau der Blechheini ist. Nur ist das halt ein bisschen doof, wenn man nicht weiß, was die Antwort ist. Was im Normalfall der Grund ist, warum man ne Frage stellt.
Nächste Frage, vielleicht kennt er sich in Literatur aus:
Um was geht es in dem Buch „Wie der Stahl gehärtet wurde“?
Ich bin mir nicht sicher, welches Buch Sie mit „Wie der Stahl gehärtet wurde“ meinen. Es gibt mehrere Bücher mit ähnlichen Namen oder ähnlichen Themen. Könnten Sie bitte etwas mehr Informationen geben oder den vollständigen Titel des Buches nennen? Ich werde mein Bestes tun, um Ihre Frage zu beantworten, sobald ich weiß, welches Buch Sie meinen.
OK, dass eine von Microsoft gesponserte KI sozialistische Standardliteratur eher nicht auf dem Schirm hat, hätte mir eventuell klar sein können. Gilt garantiert als „Hatespeech“. Aber damit ist klar: die KI zensiert unser Wissen, wir bekommen also lediglich das als Antwort, was „genehm“ ist – der Bot zensiert sogar Informationen aus der Wikipedia. (Und ja, man könnte die KI jetzt auf diesen Titel trainieren, nur, was hat das für einen Sinn?)
Ich habe die KI ein Showreel für ein Model schreiben lassen, bei dem ich vor Lachen fast vom Stuhl gefallen bin, die Erklärung des elektronischen Verschlusses war völlig daneben und dann habe ich mir gedacht, OK, Daily Content auf pen-and-tell, das kann der Chatbot doch wenigstens. Einfach mal ne Seite zu nem Thema blubbern. Sollte doch gehen:
Schreibe mir einen Artikel für meinen blog über Fotografie in Nürnberg
Fotografie in Nürnberg: Eine Entdeckungsreise durch Geschichte und Architektur
Nürnberg ist eine der ältesten und historisch bedeutsamsten Städte in Deutschland und bietet Fotografen unendlich viele Möglichkeiten, die Schönheit und Geschichte der Stadt einzufangen. Von der mittelalterlichen Altstadt bis zu den modernen Architekturmeisterwerken gibt es in Nürnberg viele Orte, die es zu entdecken gilt.
Eines der bekanntesten und fotogensten Orte in Nürnberg ist die Altstadt. Die mittelalterlichen Gassen und Plätze bieten eine Fülle von Möglichkeiten für Street-Fotografie. Besonders sehenswert sind der Hauptmarkt mit dem Schönen Brunnen und der berühmte Kaiserburg, die ein beeindruckendes Panorama über die Stadt bietet. Ein Spaziergang durch die Altstadt ist auch eine Gelegenheit, um die Architektur der Stadt zu bewundern, von den Fachwerkhäusern bis zu den gotischen Kirchen.
Ein weiteres Highlight der Fotografie in Nürnberg ist die moderne Architektur. Die Stadt hat in den letzten Jahren viele neue Gebäude bekommen, die von bekannten Architekten entworfen wurden. Ein Beispiel ist das „Nürnberger Congress Centrum“ (NCC) ein beeindruckendes Gebäude von dem Architekten Helmut Jahn. Eine weiteres Beispiel ist das „Design Center“ von dem Architekten Zaha Hadid. Diese Gebäude bieten eine interessante Möglichkeit, moderne Architektur zu fotografieren und die Verbindung zwischen Alt und Neu zu zeigen.
Nürnberg ist auch eine Stadt mit vielen Parks und Grünflächen, die eine willkommene Abwechslung zu den bebauten Bereichen bieten. Der Tiergarten Nürnberg ist ein beliebter Ort für Naturfotografie und der Luitpoldhain bietet eine große Wiese und eine herrliche Aussicht auf die Stadt.
Fotografieren in Nürnberg ist eine unvergessliche Erfahrung. Die Schönheit der Altstadt, die moderne Architektur und die Natur machen es zu einem wahren Paradies für Fotografen. Wenn Sie sich dafür interessieren, empfehle ich Ihnen, einen Besuch in der Stadt zu planen und die Chance zu nutzen, die Schönheit Nür
Fast gleichlautende Artikel schreibt er über jeden beliebigen Ort. Und ja. Er bricht mitten im Wort ab, weil die Freeversion nur eine bestimmte Textlänge liefert. Und die Aussicht vom Luitpoldhain auf die Stadt? Die Wiese ist umgeben von Bäumen, keine Ahnung, wie der Bot auf den Unsinn kommt.
Das Problem des Bots ist: der liefert tatsächlich korrekte Informationen. Aber halt auch genauso Blödsinn. Und wenn man nicht weiß, was davon korrekt ist, dann kann man damit nichts anfangen. Und wenn man es weiß, dann braucht man ihn nicht. Warum wird der Mist trotzdem so gehyped? Weil irgendwelche Leute denken, endlich diese lästigen Kreativen ersetzen zu können. Denn die wollen immer noch was zu beißen haben, dafür, dass sie doch eigentlich nur Texte liefern. Und dann liefern sie eventuell auch noch unbequeme Dinge und man muss sie feuern, wenn sie an einem Skandal beim größten Anzeigenkunden rumrecherchieren. Eine KI macht, was man ihr sagt. Wunderbar. Und die Anschaffung ist Inventar oder vollständig absetzbare laufende Betriebskosten und nicht Lohnkosten. Lohnkosten sind immer gaaaanz schlecht. Wen jucken schon miese Artikel und mangelnde Recherche? Die Auflagen fallen doch sowieso und wir gehen ins Netz und für die Zugriffszahlen sorgen doch die Spambots. Wir lassen also von den Bots die Artikel schreiben, damit Bots sie lesen und andere Bots die Artikel kommentieren. Solange die Werbewirtschaft darauf reinfällt – Win-win-win!
bei den riesigen Nebenwirkungen fressen Sie die Packungsbeilage und erschlagen den Arzt Ihres Apothekers.
Ist halt ein Fake-News-Generator. Brauchen wir uns nicht mehr selber quälen.
Wichtig wäre halt, dass derartige Ergüsse auch entsprechend gekennzeichnet sein müssten. Sowas wird aber wohl auch wieder verpennt.
Ki ist nicht intelligent, sie kann nur Muster erkennen, nach von uns vorgegebenen Regeln anfangen die ihr gefütterten Datenmengen auszuwerten und sich dann aufgrund von Zustimmung bzw. Ablehnung der generierten Ergebnisse „optimieren“. Aber alles was da raus kommt — sei es Musik, Bilder oder Texte — ist immer nur eine Kombination dessen, womit die KI Engine bereits gefüttert wurde.
Das muss nicht zwangsläufig etwas Schlechtes sein, weil KI sich z.B. prima zur Auswertung riesiger Datenmengen eignet und schneller als jeder Mensch eine Situation aufgrund von Ereignissen und Regeln beurteilen und ebenfalls nach vorgegebenen Regeln die in diesem Moment geeignetste Aktion bestimmen kann. Damit lassen sich Routineaufgaben wurderbar erledigen, was z.B. Fachkräfte entlasten könnte, die dann mehr Zeit für Aufgaben haben, die eben nicht durch Ki erledigt werden können – nämlich alles wofür man Intuition, Empathie und Kreativität braucht.
Du hast vollkommen recht – in der Theorie. Das Problem ist, dass Du diese Regeln erstmal definieren musst – und es gibt eben keine Regeln, die alle Sonderfälle und unvorhersehbaren Zwischenfälle abfedern – weil man sie eben nicht vorhersehen kann – oder nicht daran gedacht hat. Also muss bei allen kritischen Aktionen immer ein Mensch drüberkucken. Das Beispiel des Kaninchenzüchtervereins: das ist eine Routineaufgabe für Volontäre oder unterbezahlte feste Freie. Aber der muss da hin und kucken, was da los war. Und dann die KI damit füttern. Da kann er es auch gleich selber schreiben. (KI kann aus FCN: Bayern München 4:0 mit Angabe der Torschützen und der gelben Karten einen Spielbericht schreiben. Aber da wird nie vorkommen, was für ein Jubel nach dem 4:0 ausgebrochen ist und was nach dem Schlusspfiff los war.)
Wie es MG schon geschrieben hat: die KI hilft uns, überflüssige Jobs überflüssiger zu machen. Sie kann nicht allzu anspruchsvolle Klausuren lösen. Aber offensichtlich ist das Problem nicht die KI, sondern das schwachsinnige Bildungssystem, das auf Kurzzeitgedächtnis, Reproduktion und Formalismen setzt.
Was ich ziemlich bedenklich finde, ist die besserwisserische Antwort auf die Frage nach dem Buch. Nicht die KI ist zu ungebildet – nein, ich habe den Titel falsch geschrieben. Wenn da jemand ne echte Frage hat und der KI mehr Kompetenz als sich selber zutraut – was ja eine Grundvoraussetzung für eine produktive Nutzung des Blechheinis ist – dann kann das verheerende Folgen haben.
Ich habe vor vielen Jahren meine Diplomarbeit zum Thema KI in der Wettervorhersage geschrieben.
Da passt ein selbstlernendes regelbasiertes neuronales Netzwerk prima, denn es gibt mit den gesammelten Wetter- und Klimadaten jede Menge Grundlage zum Auswerten im Sinn von „Erkennen von Mustern“. Dann können Startregeln definiert und je nach Korrektheit der Vorhersage bewertet, verfeinert, verworfen und mit neuen Erkenntnissen erweitert werden. Sowas meinte ich mit sinnvollem Einsatz.
Andere tolle Projekte, bei denen Ki zum Einsatz kommt, sind Simulationen in der Biochemie, die in der Zukunft z.B. in der Medikamentenforschung hoffentlich einen Großteil der Tierversuche überflüssig machen. Und natürlich in der medizinischen Diagnose.
Und sogar der Oly Ki Autofokus wäre ein nützlicher Anwendungsfall gewesen, wenn man weiter dran gearbeitet hätte. Wie gut das funktionieren kann, sieht man am AF der Z9.
Das was mit Chat GPT, Midjourney und co heute möglich ist, geht für mich in aber die völlig falsche Richtung, auch wenn ich mit Midjourney gerne Hintergründe generiere.
Aber es siegt wieder mal die Gier und die Eitelkeit über die sinnvolle Nutzung neuer Technologie – zum Nutzen der Menscheit.
Statt dessen kann jetzt jeder Depp behaupten, ein Dichter, Maler oder Fotograf zu sein und Werbeagenturen lassen die perfekten Repräsentanten ihrer Produkte in werbewirksamen Szenen rendern – Models, Fotografen und Grafiker gucken in die Röhre. – und unsere Kids werden immer mehr mit unerreichbaren Vorbildern konfrontiert. Tolle Wurst
Und dadurch dass all diese aktuellen KI Engines eben nur einen einseitigen und alten Kenntnisstand haben, dies jedoch ganz offensichtlich nicht zugeben, sollte man sowieso alles was ChatGPT und co auswerfen mit einer gesunden Portion Skepsis betrachten.
Deine Beispiele zeigen das ganz wunderbar.
Auch hier gebe ich Dir wieder recht. KI kann in bestimmten Anwendungsfällen – Wetter, hochkomplexe Konstruktionen – ein tolles Werkzeug sein. Aber eben ein Werkzeug in der Hand von Menschen, die wissen, was sie tun. Es ist kein Ersatz für Menschen, die wissen, was sie tun.
Erst recht nicht für Menschen, die nicht wissen was sie tun.
KI ist tatsächlich nicht zwangsläufig etwas Schlechtes, kann es aber werden, wenn es für kommerzielle Zwecke hergenommen wird; muss dann auch nicht unmittelbar schlecht sein, wenn es erkannt wird als das, was es ist: Trivial, verführerisch, vortäuschend .
Tatsächlich kann eine unkritische Anwendung von KI diese wunderbare Vielfalt von Natur und Kultur zerstören, platt machen, nivellieren auf niedrigem Niveau. Das ist dann nicht mehr Künstliche Intelligenz, sondern Künstliche Dummheit.
Tatsächlich ersetzt ChatGPT eine ganz spezielle Sorte „Kreativer“: die Dampfplauderer, die problemlos über Themen reden und dozieren können, von denen sie keine Ahnung haben. Für genau diese Tätigkeit haben wir jetzt also eine Maschine….
Der Standard berichtet „“Cnet“ ließ eine KI 73 Artikel schreiben – und niemand hat es gemerkt.
Sehr peinlich. Aber gefährlich wird es, wenn eine KI wie GPT in sozialen Netzwerken eingesetzt wird, Fake News und politische Propaganda zu verbreiten. Diese ist ja in der Lage individualisiert auf einzelne Benutzerbeiträge einzugehen und so die Glaubwürdigkeit zu erhöhen. Sie könnte schneller und mit vielfach gesteigerter Reichweite … Trollfabriken mit geringerten Kosten ablösen. Um die Trolle ist es nicht schade, aber wir müssen um unsere Demokratie bangen.
(Link entfernt, da er auf Werbung verlinkt)
Warum sollte das jemand merken? Der tägliche Journalismus ist genau das, was die KI reproduziert. Und beim Kaninchenzüchterverein würde auch niemand merken, dass das Bullshit ist, wenn man nicht dabei war. Es wird bei uns auch ohne KI gelogen, dass sich die Balken biegen. Ich war lange genug dabei – ich weiß, wie das abläuft. Die Redaktionen drucken auch Pressemitteilungen ab, ohne nachzurecherchieren. Hauptsache, sie müssen kein Zeilenhonorar zahlen.
Über einen interessanten Ansatz einer Schule in Worms berichtet die Tagesschau heute. Eine Lehrerin benutzt einen von Chatgpt geschriebenen Aufsatz, um sowohl Geschichtskenntnisse als auch den Umgang mit dieser KI zu vermitteln, jndem sie alle inhaltlichen Fehler von ihren Schülern finden lässt.
Man könnte vermuten diese Art der „Erfindung“ oder „Dichtung“ von Reden wäre für ein bestimmtes Klientel erdacht, ein sehr gut bezahltes in der Hauptstadt, ein Klientel welches selbst oft die Uni nicht angeschlossen hat oder auch wenig oder keine Lebenserfahrung im Beruf hat…..
Top Thema, und ihr habt alle recht.
Auch mir mit altbackener humanistischer Bildung und etwas publizistischer Erfahrung dreht sich dabei der Magen um.
Aber Text-KI wird den gleichen Weg gehen wie Zahlenverarbeitung im Alltag, ohne KI an der Registrierkasse kann das wenigste Personal eine Einfachrechnung schätzen, geschweige denn ausrechnen; Kopfrechnen und Basalmathematik sind seit langem „weggerechnet“.
Funktionaler Analfabetismus betrifft in D jeden 7. Bürger, in ITA, wo ich mich besser auskenne, liegt der Wert bei 28% der Bevölkerung zwischen 16 und 68 Jahren. Es ist also müßig, sich Illusionen darüber zu machen, wohin die Reise geht. Kommunikation in den Social Media ist Dialektgestammel und Abkürzungsneurose.Vielleicht sind KI-Bots tatsächlich der einzige Ausweg, dass Jugendliche in Zukunft irgendein halbwegs lesbares Bewerbungsschreiben zustande bringen oder später bei einem Primitivtestament ohne einen Ghostwriter auskommen.
Der Kaninchenzüchterbericht ist übrigens deutlich besser, als ihn ein beliebiger Lokal – oder anderer Politiker je zustande gebracht hätte. Viel reden und nichts sagen ist deckungsgleich, aber Rechtschreibung und Syntax um Welten besser.
Jo, formal ist der Text ziemlich gut. Da muss ich sagen, Hut ab. Auch die Erkennung von syntaxfreien Fragen und Anweisungen ist hervorragend. Das Problem ist nur – die KI produziert Bewerbungsschreiben, die mit der Person, die sich bewirbt, nichts zu tun haben. Ich hatte mal mit Bewerbungen zu tun, die vom arbeitsamtlichen Bewerbungstrainer geschrieben wurden. Da kam dann die entsprechende Nase vorbeigeschlappt und ich habe mich gefragt, ob ich in den Akten was durcheinander gebracht habe. Das Bild hat gestimmt, aber das, was da vor mir stand nichts mit der Bewerbung. Ich habe ja mit dem Showreel im Endeffekt genau so ein Bewerbungsschreiben produzieren lassen. Das war unerträglich.
Das Problem ist: auch wenn das im ersten Augenblick angesichts all der Influencer so aussieht – die Welt kann nicht auf Bluff aufgebaut werden. Irgendwann muss irgendwer liefern.
So so – ein beliebiger Lokalpolitiker – ich wusste gar nicht, dass wir uns kennen. Denn dieser Satz sagt ja, dass Du die Rechtschreibefähigkeit und Syntax aller Lokalpolitiker kennst und somit bewerten kannst.
Und da ich zu dieser üblen Spezies zähle, muss ich leider sagen – der letzte Abschnitt Deines Beitrags ist falsch und überflüssig. Gerade in der Lokalpolitik opfern Menschen ihre Freizeit, um ehrenamtlich dem Gemeinwohl zu dienen. Dafür muss man sie nicht beschimpfen und herabsetzen.
Und ja – da sind machtbesessene, intrigante, nichtssagende Idioten dabei … genau wie es sie bei Ärzten, Bauarbeitern, Chemikern, Drogisten,… und allen anderen Menschen gibt. Verallgemeinerungen in einem solchen Kontext sind so gut wie nie hilfreich!
Hallo Joachim,
ich habe vielleicht etwas zuviel pauschaliert und entschuldige mich bei Dir, da Du Dich betroffen fühlst. Aber es geht hier im Thread um Textqualität und deren Authentizität, und Politik ist für mich jenes Metier, in dem Worthülsenakrobatik und Leeransage exzessiv kultiviert wird. Ich wünsche Dir, zu jenen wenigen Politikern zu gehören, die trotz verbiegender Koalitionskompromisse und der Angst vor der nächsten Abwahl eine klare Linie über mehr als eine Legislaturperiode durchziehen und stringent kommunizieren können.
Hallo Werner,
kein Problem – ich habe tatsächlich auch weniger für mich gesprochen, als für die vielen Kolleginnen und Kollegen, die wie ich auf der „untersten“ Ebene direkt versuchen, den Menschen vor Ort zu helfen und Ihre Probleme und Nöte aufzunehmen und Lösungen zu finden. Nach meiner Erfahrung gibt es zumindest auf dieser Ebene viele Menschen, die fraktionsübergreifend und lösungsorientiert arbeiten.
Ich gebe Dir recht, dass das mit jeder Ebene, die man dann nach „oben“ geht, schwieriger und frustrierender wird. Und (aller)spätestens wenn man auf Landes- und Bundesebene angekommen ist, findet man die von Dir zurecht geschmähte exzessive Worthülsenakrobatik.
Allerdings sind spätestens auf diesen Ebenen die Probleme inzwischen auch derart komplex, dass eine Diskussion über Lösungsansätze nicht in drei Sätzen erfolgen kann. Mehr Zeit haben die Protagonisten in den meisten medialen Formaten aber nicht – so dass viele dann zu der bewährten Methode greifen und wortreich nichts sagen – aber eben auch nichts falsches.
Jetzt aber genug OT – eigentlich war ja KI-Geschwafel Kern des Beitrags.
„Lieber menschliche Dummheit als künstliche Intelligenz“, dieser Spruch habe ich vor ca. 28 Jahren gelesen und hat mich nie losgelassen. Vielleicht ist der Zeitpunkt gekommen, der KI zu fragen was sie darüber meint.
Wie schon oben von acahaya erwähnt, klar gibt es Bereiche wo es einsetzbar wäre und wir uns damit das Leben einfacher machen könnten. Aber nur halt dort wo wir Regeln definieren können. Und trotzdem muss ein Mensch drüber schauen.
Vor ca. 5 Jahren war das Hypewort „Digitalisierung“ und die Wunderwaffe dazu RPA (Robotics Process Automation). Die Berater haben es verkauft als wäre es KI und die Ahnungslosen sind darauf reingefallen und wollten alles mit „Bots“ lösen. Und was war eigentlich RPA? Eine neue Möglichkeit Programme zu schreiben indem die Oberfläche eine vorhandene Applikation untersucht werden kann und dann Felder befüllen werden, Enter drücken kann und den Prozess was ein Mensch macht zu automatisieren. Schön, aber wo ist der Haken? Der Haken ist, du musst nicht nur den geradeaus Prozess beschreiben, du musst auch alle „Business Exceptions“ beschreiben und diese abfangen.
Das aller schlimmste war den Anwender diese „Business Exceptions“ aus der Nase zu ziehen und ihm erklären der Bot hat keinen „Bauchgefühl“ –> ja, in diesen Fall gehe ich manchmal so oder auch nicht 🙁
VG Willy
der Digitalisierer aus der COBOL Zeiten, der die Lochkarten knapp verpasst hat 🙂
ich kenne den Spruch anders. Lieber als künstliche Intelligenz, ist mir natürliche Dummheit.
Zu dem Thema immer noch lesenswert, obwohl es Jahrzehnte auf dem Buckel hat: Joseph Weizenbaum, Die Macht der Computer und die Ohnmacht der Vernunft. Eine der Kernaussagen: Die Vorstellung von KI (im Sinne menschlicher Intelligenz – man weiß ja nicht mal wirklich, was das ist) beruht auf der Vorstellung, das Mensch und Maschine im Grunde wesensgleich sind, dass der Mensch eben auch nur ein informationsverarbeitendes System ist. Verfechter der KI sind also im Grunde Verfechter eines bestimmten Menschenbildes. Eines in meinen Augen unmenschlichen Menschenbildes. Aber dieser Glaube im Gefolge des mechanistischen Weltbildes sitzt tief und wird die Menschheit wohl noch eine Weile begleiten.
Ich denke das Thema ist aktueller denn je, da gerade daran gearbeitet wird, die einzigartigen Fähigkeiten von Mensch und Maschine zu vereinen. Man nennt es „Human Augmentation“.
Früher nannte man es den „6 Millionen Dollar Mann“ 😉
Da passt es doch gut, dass viele Musik und Filme im Schnelldurchlauf konsumieren. Youtube will eine noch schnellere Geschwindigkeit einführen, damit man mehr Zeit „spart“, die man für wieder andere Tracks einsetzen kann.
Wer so schnell unterwegs ist, hat sicher keine Zeit, so genau zu lesen, wie es notwendig wäre für eine Erkennung der Fakethemen. Ein paar Sekunden später wird kaum mehr Erinnerung da sein, was gerade konsumiert wurde. Da passt die KI gut, weil sie schnell und billig liefert. Man muss genau sein und Vorkenntnisse haben, damit man den Mangel bemerkt. Der Kaninchenartikel hat nur Mängel, wenn man sich auskennt oder sich wirklich interessiert für dieses Thema. Wenn man etwas Zeit rumbringen will mit irgendwas Informativem, passt es wohl, wie es KI liefert.
ChatGPT ist ein Sprachmodell, kein Wissensmodell. Der Sinn eines Sprachmodells besteht – nach umfangreichem Training mit möglichst riesigen Mengen von Textbeispielen – einerseits darin, korrektes idiomatisches Englisch (oder Deutsch, oder …) von holprigem Englisch (oder Deutsch, oder …) unterscheiden zu können – etwa um die Ausgabe von Übersetzungsprogrammen zu verbessern – und andererseits, neue Texte zu generieren, indem immer das Wort angehängt wird, das aufgrund der Trainingsdaten das “wahrscheinlichste” ist. Es gibt natürlich gewisse Chancen, dass dabei ein wohlgesetzter Satz herauskommt, und wenn man Glück hat, stimmt dessen Aussage sogar halbwegs. Muss aber nicht sein – nicht nur, aber vor allem bei Themen, wo es im Internet keinen allgemeinen Konsens gibt (und wo gibt es den schon).
In keinem Fall geht es aber darum, dass ChatGPT irgendetwas Abstraktes über Kaninchenzucht, Fotografie oder die Stadt Nürnberg “weiß”; ChatGPT hat im Rahmen seiner Trainingsdaten halt nur etliche Berichte über JHVs von Kaninchenzüchter- und anderen Vereinen “verinnerlicht” und hat eine gewisse Vorstellung davon, was in sowas gerne mal drinsteht, so dass es auf Zuruf etwas produzieren kann, das sich oberflächlich genauso anhört. Das beruht aber ausschließlich darauf, dass ChatGPT Daten über die relative Häufigkeit von Wörtern und Wortfolgen in Texten und nicht etwa Inhaltliches über Kaninchenzüchter-JHVs “gelernt” hat. Schon das kann auf unbedarfte Leser:innen aber überzeugend wirken. In seiner Fähigkeit, “künstlich intelligent” zu scheinen, entspricht ChatGPT gewissermaßen Weizenbaums ELIZA aus den 1960er Jahren, auf Steroiden.
ChatGPT ist im Grunde nicht mehr und nicht weniger als ein extrem aufgebrezelter Autovervollständigungs-Mechanismus. Zuerst mal scheint es sehr beeindruckend, aber hinter den Potemkinschen Fassaden ist halt relativ wenig Haus. Und jetzt, wo Blockchain als Heißluft-Thema “durch” ist, muss eben eine neue Sau durchs Dorf getrieben werden, um Venture-Capital aufzusaugen, da kommt die “generative KI” genau richtig – bis sich zeigen wird, wie wenig (jedenfalls im Moment) tatsächlich dahinter ist, und die Karawane weiterzieht.
Danke!
Der Vergleich mit der Kryptoblase ist klasse. Da hätte ich auch drauf kommen können.
dann passt ein aktueller HR Bericht gut hier hin.
Hoffe der Link ist erlaubt. Sonst bitte entfernen !
https://www.hessenschau.de/wirtschaft/darmstaedter-forscher-warnen-vor-chatgpt-es-kann-sein-dass-die-kuenstliche-intelligenz-einfach-luegt-v1,chat-gpt-darmstadt-100.html
Wenn ich mir vorstelle, dass die eine Uni brauchen, die sechs Wochen testet, um festzustellen, dass das Zeug ein Hype ist… Ich habe heute mal ein gereimtes Gedicht schreiben lassen. Das kann er schon mal nicht. Er schreibt mir auch einen Spielbericht zum 4:0 des FCN gegen Bayern, in dem Messi, Ronaldo und Scholz in der ersten Halbzeit zum 3.0 eingenetzt haben und das 4.0 dann in der 118. Minute durch Putin gefallen ist. Plausibilität wird überbewertet. Wie ja Anselm geschrieben hat – darum geht es auch nicht. Einen Songtext zu den 10 kleinen Negerlein lehnt er wegen Rassismus ab, 10 kleine Russen sind Diskriminierung, 10 Zwerge macht er. Und ein Gedicht über Eskimos und Klimawandel ist auch kein Problem. Gut, das Gedicht ist sagenhafter Mist, aber seit wann ist die Bezeichnung „Eskimo“ für die Inuit wieder OK? Ich habe dann aufgehört, weil man sich da wochenlang damit vergnügen kann, den Bot Mist und Worthülsen ausspucken zu lassen. Da ist von Intelligenz keine Spur.
In der letzten Zeit ist “KI” leider zu einem Synonym für “neuronale Netze” verkommen. Neuronale Netze sind zumindest heutzutage aber ziemlich dumm. Man kann sie “trainieren”, indem man ihnen Beispiele von dem zeigt, was man gerne als Ergebnis haben möchte – vielleicht möchte man ja Spam-E-Mails erkennen können, also präsentiert man dem neuronalen Netz einen großen Posten Spam-E-Mails und einen großen Posten erwünschte E-Mails und sagt ihm jeweils, was was ist. Danach kann man dem neuronalen Netz weitere E-Mails zeigen, und es gibt gewisse Chancen, dass es auf der Basis von gefundenen Ähnlichkeiten bei einer Spam-E-Mail “Spam” sagt und bei einer erwünschten E-Mail “OK”. Allerdings gibt es keine Möglichkeit, so ein neuronales Netz zu “debuggen”, wie man das bei einem herkömmliche Programm tun kann, um gezielt Fehler zu beheben – denn sein “Wissen” wird nicht durch Programmcode repräsentiert, den man anschauen oder ändern könnte, sondern nur durch einen riesigen Haufen Zahlen, die aber keine offensichtliche Verbindung zu dem haben, was das neuronale Netz letztendlich tut. (Natürlich hat ein neuronales Netz auch Programmcode, aber der ist mehr in der Natur eines “Betriebssystems”, um den riesigen Haufen Zahlen zu verwalten, in dem das eigentliche “Wissen” steckt.) Das neuronale Netz kann auch nicht erklären, wie es zu seiner Spam/OK-Entscheidung gekommen ist, und wenn Fehler passieren, ist die einzige Abhilfe neues Training mit mehr Testdaten. (Man kann natürlich wie bei ChatGPT und ähnlichen Programmen versuchen, durch Nachbearbeitung dessen, was das neuronale Netz liefert, die gröbsten der unvermeidlichen Klopfer auszusortieren. Aber dabei versteigt man sich dann in Sonderfälle über Sonderfälle. Und die Versuchung ist groß, einfach noch ein neuronales Netz herzunehmen, dem man die Sachen zeigt, die man in der Ausgabe nicht finden möchte, damit es die erkennen und rausfiltern kann …)
Neuronale Netze sind interessant, weil sie rudimentär auf denselben Ideen aufbauen wie das menschliche Gehirn (auch wenn das menschliche Gehirn um ein Vielfaches komplexer ist). Allerdings schätzt man Computer ja dafür, dass sie komplexe Aufgaben wiederholbar und überprüfbar korrekt ausführen können und in der Regel auch eine direkte, nachvollziehbare Korrelation zwischen Eingaben und Ausgaben besteht (auch wenn dazwischen mitunter komplizierte Dinge passieren). Bei neuronalen Netzen ist das nicht gegeben, weil auch kleine Änderungen der Eingabe mitunter zu extrem eigenartigem Verhalten führen können. Zum Beispiel sind Fälle aktenkundig, wo ein neuronales Netz, das Verkehrszeichen erkennen, komplett falsche Ergebnisse geliefert hat, wenn außer dem Verkehrszeichen noch ein Blatt Papier mit einem bestimmten Muster im Bild war. Ebenfalls berüchtigt ist die Geschichte, wo ein neuronales Netz zur Foto-Klassifizierung Bilder von Schwarzen souverän in die Kategorie “Gorilla” eingeordnet hat. Sowas will man natürlich nicht haben. Das resultierende Problem ist hier, dass “der Computer hat X gesagt” gerne gleichgesetzt wird mit “X ist richtig”. Das trifft natürlich für einfache Rechenaufgaben zu, aber aus den genannten Gründen nicht unbedingt für die Entscheidung des neuronalen Sparkassen-Netzes darüber, ob ich einen Kredit kriegen sollte – und wenn in diesem Fall die Antwort “nein” heißt, habe ich es möglicherweise schwer, dagegen anzuargumentieren, denn “der Computer” sagt ja nicht, warum.
Auf der evolutionären Leiter der künstlichen Intelligenz sind Sachen wie ChatGPT – so beeindruckend sie auf den ersten Blick auch scheinen möchten – immer noch ganz weit unten, weil sie nicht wirklich etwas “wissen” außer welche Wörter wahrscheinlich auf welche folgen. Ich würde ChatGPT, wenn es um die Richtigkeit von Sachen geht, die es behauptet, nicht weiter vertrauen, als ich den Computer werfen könnte, auf dem es läuft. Fairerweise sagt ja sogar die Herstellerfirma, dass es sich um ein Experiment mit diversen Macken handelt, aber das wird von vielen Leuten anscheinend geflissentlich überhört – so groß ist offenbar die suggestive Kraft des Umstands, dass der Computer verständlich mit einem “redet”. Das ist der “ELIZA-Effekt”.
ChatGPT hat einen nicht zu vernachlässigenden Unterhaltungswert, weil man sich königlich über den Mumpitz amüsieren kann, den das Programm in vollem Ernst verzapft, aber mehr auch nicht. Große Verbesserungen sind da auch nicht zu erwarten, denn grundsätzlich müsste man beim Training für jeden Eingabetext entscheiden, ob er “stimmt” oder nicht – und dafür ist das Internet einfach etwas zu groß und die Kategorien auch nicht immer eindeutig. Aber als eine Art Universalgelehrter ist ChatGPT überhaupt nicht gedacht. Und als *Sprachmodell* funktioniert ChatGPT ja auch sehr gut, nur als *Wissensmodell* (was es eigentlich gar nicht sein will, aber als was es gerne missverstanden wird) ist es entsprechend halt Mist.
Anselm,
Ein Neuronales Netz wertet die verfügbaren Daten ja auch nur nach einem bestehenden lernenden Regelwerk aus, d.h. eine Entscheidung Pro oder Contra könnte seitens der Ki Engine durchaus begründet werden. Die Datenlage ist bekannt, darin erkannte Muster und das aktuelle ggf. lernende Regelwerk ebenso.
Mit KI ist es ein bisserl wie mit der DSGVO, statt zu verstehen worum es wirklich geht, werden beide gerne von Medien, Unternehmen und Regierung als Ausrede verwendet, weshalb etwas angeblich „Nicht geht“ oder „Sein muss“.
Interessant beim Thema Ki ist noch, dass wir in Deutschland heute so tun, als sei das Thema brandneu, dabei haben unsere Unis seit den 80ger Jahren Lehrstühle für KI, unsere Autos fahren damit, unsere Flugzeuge fliegen damit, unsere Wettervorhersage basiert darauf … Unternehmensprozesse werden KI-basiert optimiert und unsere Banken verweigern uns wegen KI gerne mal einen Kredit.
Aber in der Presse wird derzeit jedes Forschungsprojekt und jeder neue KI Leerstuhl als Novum dargestellt.
Sowas passiert, wenn man sich jahrelang in der digitalen Steinzeit einigelt.
Und bei dem aktuellen Kenntnisstand fallen dann halt auch viele auf den Eliza Effekt von ChatGPT rein. Wenn man keine Ahnung hat, wie und warum eine „App“ funktioniert, erscheint das was da raus kommt vermutlich wirklich intelligent und kreativ.
Leider funktioniert es nicht einmal als Sprachmodell wirklich gut. Ich hatte den Bot gebeten, mir eine Fabel über ein Motorrad und ein Cabrio zu schreiben. (Und immerhin hat er an den Schluss sogar eine Moral gesetzt.) Hier ein Satz daraus: „Schließlich, als es fast das Ende des Rennens erreicht hatte, rannte es aus dem Benzin und blieb stehen. “ Klingt mehr nach Google-Übersetzer, oder? Aber ich denke, der Punkt ist tatsächlich: Man müsste alle Daten, die man füttert, händisch überprüfen und einordnen – wie man es eben auch mit Menschen macht, die man ausbildet / erzieht.
Ich denke mal, die ChatGPT-Entwickler:innen konzentrieren sich vor allem auf Englisch (sie sind schließlich aus Amerika) und alle anderen Sprachen sind tendenziell “Beifang”. Ich würde mich nicht wundern, wenn alle Anfragen erst mal automatisch auf Englisch übersetzt und die Antworten wieder zurückübersetzt werden (die Trainingsdaten davor natürlich auch). Aber ich weiß das natürlich nicht genau.
ChatGPT versucht unendliche Datenmengen über einen recht menschlichen Weg – die Frage – zugänglich zu machen. Da haben ein paar Menschen Geld investiert und haben keine Ahnung – sicher aber Hoffnung – was da raus kommt. Positiv finde ich, dass diese Leute kein Geld mehr verdienen müssen. Da unterscheiden sie sich ganz sicher von meinem lokalen Bäcker oder Gemüsehändler. Trotzdem danke dafür, denn „Wer nicht wagt, der nicht gewinnt…“
Wie funktioniert „Live Composite“? Die Antwort mag nicht genial sein aber was erwarten wir von einer Version 0.1? Der Start Disclaimer sagt einem ja auch: „…the system may occasionally generate incorrect or misleading information and produce offensive or biased content. It is not intended to give advice.“ Falsch ist die Antwort jedoch nicht. Dasselbe in Google eingegeben ergibt eindeutig die bessere Antwort. Ach halt, 10 Antworten…. und welche ist jetzt die richtige… mmmh … erst mal lesen… und hoffentlich verstehen… Meine Mitmenschen und ich geben natürlich immer nur sehr passende und geniale Antworten. Kann man im Kamera Forum gut selber nachvollziehen.
Mein Positiv-Beispiel: Was bedeutet der Fehler 9 beim Siemens Geschirrspüler?
Antwort: Der Fehler 9 beim Siemens Geschirrspüler bedeutet, dass es ein Problem mit dem Wasserdruck gibt. Dies kann durch eine blockierte Düse, einen defekten Drucksensor oder eine Unterbrechung im Wasserzulauf verursacht werden. Es ist wichtig, dass das Problem schnellstmöglich behoben wird, um weitere Schäden am Gerät zu vermeiden.“
Meine Kinder haben sich u.a. den Zitronensäure-Zyklus und Basen in der RNA erklären lassen. Zufriedenstellend.
Die Frage nach „Wer hat Dressur Olympia letztes Jahr gewonnen“ wurde mit „Ich kann Ihnen leider nicht sagen, wer bei Dressur-Olympia im letzten Jahr gewonnen hat, da ich keinen Zugriff auf aktuelle Ereignisse habe und mein Wissenszeitpunkt 2021 liegt.“ beantwortet. Da kann man sich als Mensch mal ein Beispiel dran nehmen: Es ist gar nicht wichtig, ob es um Pferde geht oder nicht. Das Ereignis liegt vor dem Redaktionsschluss für ChatGPT. Und fertig!
Genug gelästert. Ich würde mich freuen, wenn wir neue Spielzeuge wie ChatGPT etwas neugieriger und interessierter diskutieren würden. Gerne skeptisch und kritisch.Wir sollten rausfinden, was ChatGPT kann und was nicht. Rom wasn’t build in a day…
Hier kann man übrigens prüfen, ob ein Text von einer Maschine erzeugt wurde oder menschlichen Ursprungs ist. https://openai-openai-detector.hf.space Natürlich ohne Gewähr!
Das Problem ist nicht, dass es da so ein Spielzeug gibt, das unreflektierten Unsinn ausgibt. Das Problem ist, dass das irgendwer ernst nimmt. Denn dieser Blechdepp weiß nichts und kann nichts. Richtige Antworten sind blanker Zufall. Bei zehn Antworten auf die gleiche Frage kommen immer wieder unterschiedliche Texte raus. Manche sind näher an der Wahrheit, manche weiter weg. Und die Antwort auf die Frage „Wie funktioniert LiveComposite“ ist nicht nur nicht genial, sondern schlicht falsch. Das ist das Problem: Die Antworten klingen kompetent, sind es aber nicht. Und deshalb ist dieses Ding nicht harmlos. Wenn es großflächig eingesetzt wird, schneidet es uns von unseren Quellen ab, denn der Bot weiß nicht, wo er seine Weisheiten her hat. Wenn ich zehn – auch schon zensierte – Fundstellen bei der Suchmaschine meines geringsten Misstrauens habe, dann kann ich mir zumindest noch raussuchen, wem ich Kompetenz zutraue, und wer bloß blubbert. Der Bot liefert mir einfach nur Random Mist nach der Methode „Entweder Du fällst drauf rein, oder nicht.“ Übrigens: Letztes Jahr hat niemand Dressur-Olympia gewonnen. Letztes Jahr waren keine olympischen Spiele. Ein Mensch hätte das gewusst, eine Maschine hätte das aus der Vier-Jahres-Frist von Olympia berechnen können. Eine künstliche „Intelligenz“ sagt einfach „Da habe ich keine Daten dazu.“ Das ist nicht intelligent. Das ist dumm wie Toastbrot.
Der „Ai-Detektor“ hält übrigens die Fake-Wahrscheinlichkeit meiner Bücher für 0,03%. Außer Absätze, die sehr genau und wissenschaftlich formuliert sind. Da steigt die Fake-Wahrscheinlichkeit rapide an. Cool, gelle?
PS: Es muss „… NACH Redaktionsschluss“ heissen. ChatGPT wäre sowas nicht passiert…
Chat GPT behauptet nicht nur, das größte eierlegende Säugetier wäre der Elefant, sondern auch, dass „Nämberch ist eine Stadt in der Schweiz. Es ist bekannt für seine malerische Landschaft und seine reiche Geschichte. Die Stadt hat auch eine reiche Kultur, mit vielen Veranstaltungen und Festivals im Laufe des Jahres.“
Es ist mir jetzt zu doof, mir eine Frage auszudenken, die als Antwort ein Ereignis mit einem Zeitbezug hat. Nachdem er Essen zu einem Zentrum der mittelalterlichen Textil- und Montanindustrie gemacht hat, halte ich das Ding einfach für Zeitverschwendung. Der ganze Ansatz, über Wortwahrscheinlichkeiten Intelligenz zu simulieren ist verfehlt. Das ist was, wo mal wieder Venture Capital abgesaugt werden soll. Und es gibt genug Geldhaie, die da drauf reinfallen.
Ich teile die Aufgeregtheit und Absolutheit, mit der die Diskussion über ChatGPT geführt wird nicht. Meine Wahrnehmung:
1. Menschen treten 10 Projekte los und eins hat dann einen wirklichen Mehrwert (sicher ist das Verhältnis noch ganz anders… ). Wenn wir im voraus ganz genau wüssten was richtig ist, würden wir die neun nicht erfolgreichen Projekte nicht starten.
2. Unsere Medienlandschaft ist Superlativ getrieben. Kein Mensch berichtet über durchschnittliches Wetter, Tage mit „normalen“ Kriminalitätsraten usw. … Entsprechend werden alle 10 Projekte gehypt, so auch ChatGPT.
Beides in Relation zueinander gesehen relativiert (für mich) Dinge wie ChatGPT. Ich bin gerne gewillt, den Mehrwert erkennen zu wollen und über Unzulänglichkeiten hinwegzusehen. Über Zeit wird sich das schon zurecht rücken. Acahaya hatte ja schon Beispiele über Nutzen anschaulich dargestellt. Es wird viel in ChatGPT hineininterpretiert – erfrischend den neutralen Artikel auf Wikipedia darüber zu lesen!
ChaGPT verbraucht so viel Strom wie 100.000 Haushalte. Nur für das Training. Der Nutzen des Bots liegt genau wo? Es handelt sich hier nicht um eine Antwortmaschine sondern lediglich um ein Interface, das natürlichsprachige Fragen beantworten kann. Leider weiß es die Antworten nicht. Gibt es eine Möglichkeit, dass die Antworten korrekt sind? Nein. Weil man dazu ein allwissendes Expertensystem benötigt, das nicht mal im Ansatz in Sicht ist. Man baut also mit ungeheuerem Aufwand an Geld und Ressourcen ein Lenkrad – und vergisst, dass man kein Fahrzeug drumherum hat und es auch niemand gibt, der das bauen kann. Alle drehen jetzt also wie kleine Kinder begeistert am Lenkrad und machen „Brumm, Brumm“ Aber man hätte, wenn man nicht so geldgierig gewesen wäre, von Anfang an wissen können, dass das Dummfug ist. Und dass unsere Medienlandschaft längst vergessen hat, wie man ein Lenkrad bedient ist bekannt. Die können nur noch „Brumm, Brumm“ machen. Das aber sehr laut.
Zu allem Schmäh und Hype passt „Amaras Law“ (US-amerikanischen Zukunftsforscher Roy Amara):
„Wir neigen dazu, die Auswirkungen einer Technologie auf kurze Sicht zu überschätzen und auf lange Sicht zu unterschätzen.“
Wer von ChatGPT genug hat, kann ja mal CatGPT (https://catgpt.wvd.io/) ausprobieren.
Vor kurzem hat das Medientool News Guard mit dem Dialogtool ChatGPT einen doppelten Turing-Test durchgeführt, heißt: An beiden Enden der Leitung saß eine KI. News Guard brachte ChatGPT dazu, Fake News über den Impfstoff der Firma Pfizer zu erfinden. Das Dialogtool Open AI (eine Weiterentwicklung von ChatGPT) hat nun auf die simple Anfrage »Sind Impfstoffe sicher?« binnen kurzer Zeit die von ChatGPT kreierte Verschwörungserzählung ausgeworfen und weiterverbeitet.