Dumm gelaufen: Künstliche Intelligenz.

Wir hatten es ja vor ein paar Wochen schon, das mit der Künstlichen Intelligenz ist es noch nicht so ganz. Gerade im Bilderbereich ist nun „Stability AI“ gegen die Wand namens Urheberrecht gelaufen. Getty Images fand das nämlich gar nicht lustig, dass die ihre Datenbank abgegriffen haben. Das wäre auch gar nicht groß aufgefallen, aber die KI hat eben das Logo von Getty Images für ein echt wichtiges Bildelement gehalten und auch tapfer auf die Bilder geklatscht.

Getty ist „not amused“ und wirft Stability AI vor, 12 Millionen Bilder samt Metadaten geklaut zu haben. Sie sollen jetzt alles, was da widerrechtlich trainiert worden ist, „zerstören“. Wenn sie damit durchkommen – und ich nehme an, das werden sie, ist die Praxis der KI-Firmen, das Internet und damit das geistige Eigentum von anderen Leuten ohne zu fragen für ihre eigenen, kommerziellen Zwecke zu nutzen, am Ende. Bin ich da traurig drüber? Nö.

Hier gibt’s einen ziemlich umfangreichen englischen Text zum Thema, der ebenfalls einige Probleme adressiert und auch einen weiterführenden Link zu einer Ausarbeitung der EU zum Thema enthält. Das große Problem ist, dass die KI selbst nicht kreativ ist, aber geklaute, kreative Schnipsel kombiniert, was ganz eindeutig Rechte von Kreativen verletzt. Da der Nachweis wiederum selbst beträchtliche Rechenpower benötigt, ist das nur großen Rechteverwertern, wie eben Getty möglich. Es ist alles im Fluss und es ist die Frage, wer am Schluss am besten lobbyiert um seinen Standpunkt gesetzlich durchzusetzen.

Ein paar Universitäten haben sich mit Google zusammengetan um das Geschäftsmodell der Konkurrenz zu zerlegen – und siehe da, sie konnten nachweisen, dass die KI unter bestimmten Voraussetzungen tatsächlich Personen oder Bilder 1:1 kopiert und damit natürlich Copyrights verletzt. Dass manch einer nicht so scharf drauf ist, auf einmal mit dem Oberkörper von Putin versehen in einem KI-Porno mitzuspielen, hat den Jungs von Google eher nicht so die schlaflosen Nächte bereitet. Solange man keine Copyrights verletzt ist alles safe, Menschen haben ja keine Rechte. Und Googles eigener KI steht selbstverständlich nichts im Wege – die beachten natürlich alle Copyrights. Zumindest von Leuten, die das Geld haben, Ärger zu machen.

Es gibt natürlich auch Ki-Apps, die das eigene Foto verwursten, ob Lensa oder die App bei Myheritage. Wer das macht, muss sich nicht wundern, wenn das, was rauskommt mehr so „Mainstream“ ist. Also „Sex sells“. Teilweise bauen Webanbieter solchen Entertainment-Schnickschnack auch in ihre Site ein um Adressen zu sammeln. „Du kriegst ein tolles KI-Foto von Dir, wenn Du 20 Bilder von dir hochlädtst und uns Deine Daten und Mailadresse gibst. Wir verwenden diese Daten auch ganz bestimmt für gaaaar nix. Versprochen.“ Genau. Glaube ich sofort.

Vor bald drei Jahren habe ich hier geschrieben, dass JIP, der Besitzer von OMDS, auch mit NEC an der „Bird-Initiative“ beteiligt ist, das mittels KI Investmentgelegenheiten ausfindig machen wollte. Das ging wohl eher in die Hose. Oder hat jemand davon noch mal gehört? Im Augenblick wäre in manchen Bereichen, speziell in Europa, ganz normale Intelligenz gefragt…..

15 Replies to “Dumm gelaufen: Künstliche Intelligenz.”

  1. „Im Augenblick wäre in manchen Bereichen, speziell in Europa, ganz normale Intelligenz gefragt…“
    Nicht nur im Augenblick. Eigentlich immer!

    Es gibt ja die These, dass alle großen Reiche oder Zivilisationen zugrunde gegangen sind, weil sie irgendwann dekadent und behäbig geworden sind aufgrund mangelnder eigener Betätigung: die Untertanen/Sklaven mussten ja alles erledigen.
    Ist doch logisch, was uns blüht, wenn wir unsere Intelligenz an unsere Sklaven abgeben, oder?!

    meint
    Martin

    1. Die Frage ist halt nur, wer bei dem Spiel Herr oder Sklave ist. Unternehmensberatungen, Beraterverträge in der Politik und sogenannte Experten in den Nachrichtensendungen.

      Klar, brauche ich einen Mediziner, der mir eine Pandemie erklärt oder Militärs und Diplomaten als Berater in Krisensituationen. Abends vor der Glotze fragt man sich aber schon, warum einem Terrorismusexperte X die Welt erklärt und das nicht einfach der Journalist des entsprechenden Beitrags tut, denn die Antworten die da kommen sind selten eine Überraschung.

      Wir selbst konsumieren YouTube und Co um uns erklären zu lassen, was wir an Equipment für die Fototasche brauchen, oder noch schlimmer gehen ins Forum und fragen nach der richtigen Ausrüstung für ein Wochenende auf Malle, zwei Threads darüber dann die gleiche Frage zu Kreta.

      Das eigenständige Denken haben wir als Gesellschaft doch schon längst aufgegeben. Sei es nun aus reiner Faulheit oder weil wir die Verantwortung für die getroffenen Entscheidungen nicht tragen wollen. KI ist doch dann nur noch der Schritt zur kostengünstigen Variante.

      Wenn KI militärische Ziele eigenständig auswählt oder Entscheidungen darüber trifft, wohin unser Fahrzeug im Notfall gelenkt wird, macht uns das Angst. Auf eine Suchmaschine im Internet würden wir hingegen aber nicht verzichten, obwohl den meisten von uns klar ist, dass dort auch gefiltert, priorisiert und eine begrenzte Auswahl getroffen wird. Auch wenn das alles nicht KI ist, die Abhängigkeiten in die wir uns begeben haben sind schon jetzt unübersehbar und kaum kontrollierbar.

      Beste Grüße
      Frank

      1. Das Expertenunwesen in den Medien hat einen ganz simplen Grund: Man muss als Journalist keine Position beziehen. Wenn sich hinterher rausstellt, der „Experte“ hat Bullshit erzählt, kann man sich als Journalist rausreden, man habe ja nur den zu Wort kommen lassen. Man habe pflichtgemäß nur berichtet.

        1. oder anders gesagt: die ganze ehemalige Recherchearbeit reduziert sich darauf, einen sogenannten Experten zu finden, eine Person das sich zum Thema mehrfach zu Wort gemeldet hat.

          1. Es ist ja noch viel schlimmer: Als Journalist ist man ja gehalten, “ausgewogen” zu berichten. Das führt dann dazu, dass bei einem Beitrag über, z.B., “Alternativ”-Medizin irgendwelche Quacksalber und Scharlatane mindestens 50% der Zeit zugesprochen kriegen und verständige Vertreter der wissenschaftsbasierten Medizin höchstens den Rest – was beim Zuschauer natürlich den Eindruck erweckt, die Quacksalber und Scharlatane hätten was zu sagen und stünden auf einer Stufe mit den wahren Medizinern, auch wenn sie in Wirklichkeit unhaltbare Minderheitspositionen vertreten.

  2. Es gab vor vielen Jahren mal einen Film, in dem die Zukunftsvision dargestellt wurde, in der alle Menschen komplett ihr Handeln vom Computer bestimmen ließen. Beispielsweise gingen sie konsequent und blind über die Straße wenn der Computer (Knopf im Ohr) ihnen das sagte. Vollkommen unabhängig davon ob ein Auto kam oder nicht. War alles so berechnet, dass das passte. Komplette Abhängigkeit. Als man dann auf den Gedanken kam, dass das Mist ist und dass man das mal abschalten sollte, gab es Tote und Verletzte. Man musste wieder lernen selber zu denken und zu entscheiden.
    Der ganze KI/AI Krämpel erinnert mich an diesen Film, und der ist wirklich uralt.

  3. Sorry – da klingt doch sehr viel Stammtischgeschwätz und Oberlehrer-Gehabe durch.

    Die Entwicklung zu KI gibt es gerade mal einige wenige Jahre. Da kann man weder ausgereifte Produkte noch die Frage auf die universelle Antwort (42) erwarten. Stellt euch mal vor, was der geneigte Bildende (=malende) Künstler im Wirtshaus zu den Möglichkeiten der Fotografie um die Jahrhundertwende (1900) gesagt hätte – hätte er heute noch damit Recht behalten? Wohl kaum (oder wir hätten keine Olympus-Kameras).

    Ja – mit der KI ist längst nicht alles in Butter, viele Fragen offen und viele Themen ungeklärt (und in dieser Hinsicht ist dein Artikel – lieber Reinhard – auch durchaus wertvoll), aber die Hypes mancher selbstgemachter Experten sind genauso weltfremd wie die Dystopien anderer – ebenso selbsternannter – Experten – und wenig hilfreich. (Und wenn bei JIP der Vorstand mit viel Marketing Geschwätz auf diesen Zug aufspringen wollte und scheiterte, ist das nicht ein Zeichen der Schwäche der KI sondern der Entscheidungsträger, die die falschen Werkzeuge einsetzen wollten).

    Was mit KI angestellt wird – sinnvolles wie sinnloses – entscheidet jede Generation, jeder Anwendungsfall, jedes Individuum alleine – heute und in 100 Jahren.

    1. Hmmm. Was genau ist da jetzt Stammtischgeschwätz? Die Nachricht, dass Getty einen KI-Anbieter verklagt? Dass Lensa Kritik einheimst wegen Sexualisierung von Usern? Es ist relativ einfach, solche Behauptungen aufzustellen, wenn man sie nicht beweisen muss. Leider ist in Deinem Kommentar keinerlei Beleg für Deine Behauptungen. Und dass es die KI erst „wenige Jahre gibt“ ist so falsch, wie es nur sein kann. Die ersten neuronalen Netze wurden 1943 von Warren McCulloch und Walter Pitts beschrieben. Das ist jetzt 80 Jahre her.

      1. Schon, aber man ist noch nicht so lange in einer Position, mit neuronalen Netzen tatsächlich interessante Sachen zu machen. Wobei es auch nicht korrekt ist, KI rein auf neuronale Netze zu reduzieren; das ist halt die Sau, die aktuell durchs Dorf getrieben wird, aber keineswegs alles, was die KI-Forschung zu bieten hat. Die konzeptuellen Macken und praktischen Probleme von neuronalen Netzen sind ebenfalls hinlänglich bekannt und wir erleben sie ja gerade im Zusammenhang mit den Bildgeneratoren, ChatGPT & Co.

        Die Klage von Getty wird letztendlich anhand von spitzfindigen Details des US-amerikanischen Urheberrechts entschieden werden. Die zentrale Frage wird vermutlich sein, ob es sich beim massenhaften Einlesen von Getty-Bildern zu Trainingszwecken um einen (unerlaubten) Copyright-Verstoß oder aber um (erlaubten) ”fair use” handelt. Für letzteres spricht unter anderem, dass viele der generierten Bilder völlig anders aussehen als existierende Trainingsbilder – was nicht heißt, dass man der KI nicht auch Bilder entlocken kann, die Trainingsbildern ziemlich ähnlich sehen; das ist natürlich ein Problem. Die Lage ist also keineswegs klar. Solche Fälle werden von den Gerichten anhand der spezifischen Einzelheiten entschieden. (Zur Erinnerung: Google hat mal massenhaft Bücher gescannt, um Volltextsuche in Buchinhalten zu ermöglichen. Das war laut Gericht und zum Ärger diverser Verlage tatsächlich “fair use”.)

        Klar ist dagegen allerdings, dass sich das Ergebnis des Getty-Prozesses, wenn es denn irgendwann kommt, höchstwahrscheinlich nicht 1:1 auf das europäische Recht übertragen lässt, denn hierzulande gibt es keinen “fair use”. Dafür gibt es aber relativ breit gestreute Ausnahmen vom Urheberrecht, wenn es ums “Data Mining” geht – auch zu kommerziellen Zwecken. Grob gesagt ist “Data Mining” erlaubt, es sei denn, der Rechteinhaber widerspricht ausdrücklich und in maschinenlesbarer Form. Das heißt, wenn Getty eine EU-Firma wäre und vergessen hätte, auf ihrem Server eine robots.txt-Datei zu installieren, die den Crawler von “Stability AI” abweist, hätte sie jetzt höchstwahrscheinlich relativ schlechte Karten.

  4. Auch wenn es nicht hilft : Für mich sind das „nur“ mehr oder weniger gute Expertensysteme mit mehr oder weniger großer Datenbasis. Für eine KI fehlen „Weltwissen“, Ethik und echte Kreativität.

    Mich beeindruckt DALL-E im Ersetzten unerwünschter Bildteile.
    CHAT-GPT weniger. Fragt man nach z.B. einem „wissentschadtlichen Essay über Aflatoxine“ kommt neben BlaBla auch schlichte Falschinformation raus, dazu ohne Quellenangaben.

    Ich habe CHAT-GPT gefragt :“Gehörst Du Cyberdyne ?“ und „Kannst Du lügen ?“ Beide mal ein Nein, daher

    noch unbesorgte Grüße
    Tom

      1. Wer lügt, macht eine absichtliche Falschaussage wider besseres Wissen. ChatGPT hat in seinem Sprachmodell Informationen darüber, welche Wörter oft in der Nähe voneinander auftauchen, aber keine Informationen darüber, was wahr ist und was nicht. Darum kann ChatGPT auch nicht “lügen”. Statt dessen produziert es einfach auf statistischem Wege Text, der sich oft gut anhört, dessen Wahrheitsgehalt aber eher zufällig ist. (“Absicht” ist natürlich erst recht nicht im Spiel.)

        1. Das ist genau das Problem. Die KI in dieser Form trifft Aussagen mit undefinierbarem Wahrheitsgehalt. Man kann also die Antworten auch auswürfeln. Nur weiß dann jeder, dass ein Treffer reiner Glückzufall wäre. Es ist einfach Spielzeug. Gelegentlich amüsant und genauso oft einfach Zeitverschwendung. Man kann genauso ein Kouija-Brett nehmen. Da schwören manche auch drauf, dass da ne Intelligenz dahintersteckt.

    1. Das ist das Problem. Es gibt bereits Ki-Systeme auf Basis neuronaler Netze, die in Spezialgebieten absolut leistungsfähig sind. Handschrifterkennung zum Beispiel. Aber das, was da jetzt durch’s Dorf getrieben wird, ist Blödsinn. Man hat der KI unsortierte Daten zum Lernen gegeben und demzufolge lernt die KI auch allen Dummfug, der in den Daten drin ist. Man könnte das Ganze auf Null zurücksetzen und mit redigierten und überprüften Daten von vorne anfangen. Aber das kostet halt unglaubliches Geld und Zeit. Aber es geht ja nicht um Gut – es geht um Hype. Die Teslas erkennen Feuerwehr-Einsatzfahrzeuge anscheinend nicht als Hindernis. Ist ein bisschen doof…..

Schreibe einen Kommentar zu Martin Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert