ChatGPT & Co: Beinahe gut…

…. aber hauptsächlich schlecht.

Mal abgesehen davon, dass die ersten KI-Klitschen schon zusammengebrochen sind und OpenAI gerade schneller den CEO wechselt, als man darüber Witze machen kann. Es hat sich ein Dr. Endres mit seinem Team vor einiger Zeit mal mit der Sicherheit von Sprachmodellen wie ChatGPT beschäftigt. Und dabei ging es gar nicht darum, welchen Dummfug die absondern – das ist systemimmanent und „gehört so“, denn schließlich sind das Sprachmodelle und keine Wissensdatenbanken.

Es geht darum, dass Sprachmodelle relativ problemlos gehackt werden können. Und zwar nicht mit dem Ziel eben einfach Unsinn zu erzählen – das machen die von alleine – , sondern mit dem Ziel, Anwender des Sprachmodells anzugreifen. Dr. Endres und sein Team haben da ein paar Fälle gebaut und das dokumentiert. Kuckst Du:

Ja, sorry, ist ein YouTube-Video.

Dr. Endres macht sich nicht nur Sorgen, dass man eben beim Nutzen von Sprachmodellen ein leichtes Opfer von Hackern wird, sondern dass solche Sprachmodelle (!) mittlerweile auf der Anwendungsebene Entscheidungen treffen – zum Beispiel in militärischen Bereichen. Und sie dafür nicht nur per Definition ungeeignet sind, sondern dass sie eben auch extrem leicht von außen zu manipulieren sind.

Ankucken.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert