Der Homo Ludens muss Werkzeuge spielend erfahren. Auch KI

Symbolbild zum Thema kindliches Spielen: Eine Sandburg an einem Strand

Fast alle Werkzeuge, die wir «spielend» beherrschen, haben wir spielend gelernt. Das sollten wir auch bei generativer KI.

Letztes Wochenende las Ingrid Bohr einen Artikel über die Auswirkungen auf „die jungen Leute“, mit dem sie nicht einverstanden war. Sie schrieb dazu ein Replik, aus der ich zwei Punkte aufgreifen möchte:

Lehrer: «Ich kann die Schularbeiten nicht mehr nach der Qualität der Formulierungen beurteilen»

So auf den Punkt gebracht, ist die Aussage sehr entlarvend. Sie zeigt aber einen tieferen Kern der menschlichen Psyche (und Erfahrungswelt) auf:

Wir sind uns gewohnt, dass eloquent formulierte Sätze meist fundierter und korrekter sind als schlampig formulierte Sätze. Wir hätten uns das schon lange abgewöhnen sollen:

1. Korrelation ≠ Kausalität

Nur weil etwas häufig gemeinsam auftritt, heisst das noch lange nicht, dass es einen ursächlichen Zusammenhang gibt. Beispielsweise bedeuteten in den Jahren 1999 bis 2009 mehr Filme mit Nicolas Cage auch mehr Leute, die in den USA in Pools ertrunken sind.

Kaum jemand wäre aber auf die Idee gekommen, Nicolas Cage solle gefälligst weniger Filme drehen, damit endlich nicht mehr so viele Personen ertränken.

Quelle: Tyler Vigen, Spurious Correlations, CC-BY 4.0 (diese Grafik ist aktuell nicht mehr dort verfügbar)

2. Böser Wille

Nur weil wir gescheite Leute häufig auch richtige Aussagen machen, heisst das nicht, dass sie diese Aussagen machen, weil … vielleicht haben sie ja auch ein Interesse, die Zuhörer absichtlich in die Irr zu leiten.

So gehören Betrüger und Scharlatane oft zu den Menschen, die sich sehr überzeugend ausdrücken können.

Und wenn jetzt eine Schülerin oder ein Schüler bei einer Hausaufgabe oder Abschlussarbeit betrügen will, wird der Betrug möglichst glänzend daher kommen. Und dabei ist es egal, ob die Arbeit von einem Chatbot, einem Ghostwriting-Dienst oder den Eltern geschrieben wurde.

3. Klar ist es überzeugend!

Es hat auch Muster aus den überzeugendsten Texten im gesamten Internet extrahiert. Nicht alle davon sind auch korrekt. Und manchmal wird auch überzeugend formulierte Satire ernst genommen.

Dazu hilft es, die Herkunft der Daten zu verstehen:

Verteilung der Datenquellen für ChatGPT
Herkunft der ChatGPT-Trainingsdaten (gerundet): 60% Internet allgemein (Details), 20% Reddit, je 8% Bücherkollektion 1+2 (was das ist, verrät OpenAI nicht), 3% Wikipedia (Datenquelle)

Viel davon ist einfach im Internet gesammelt, mutmasslich mit wenig Qualitätskontrolle. Einiges ist von Reddit, u.a. satirische Beiträge. Und nur 3% der Trainingsdaten stammen aus relativ faktentreuen Quellen wie Wikipedia. (Inzwischen nimmt die Datenqualität von via Internetcrawl gesammelten Daten ab; und sich gegen das Sammeln zu wehren ist schwierig.)

4. Wir sind zu nett

Wenn man bei der Beantwortung einer Prüfungsfrage unsicher ist, schreibt man häufig mehr, in der Hoffnung, dass die Lehrperson dann schon das Richtige in diesen vielen Informationen finde und diese dann als korrekt benote. (Etwas ähnliches kann man übrigens häufig auch bei Antworten von KI-Sprachmodellen erkennen.)

Wenn es um eine faire Benotung einer Abschlussarbeit geht, darf man nicht seinen ganzen Goodwill in die positive Bewertung der Arbeit stecken, sondern soll den Prüfling dann auch nach Erklärungen fragen. Daran ändert auch KI nichts.

Spielen!

In Inge Bohrs Text gefällt mir insbesondere der Schlusssatz, der zum Ausprobieren animiert.

Werkzeuge, die wir als Kind spielerisch ausprobieren konnten — auch Dinge damit machen, die so nicht im Handbuch stehen(!) — beherrschen wir aus den Effeff und können Nutzen und Risiken einschätzen.

Mit der KI zu spielen und ihr auch ein paar konfuse Aufgaben zu stellen, hilft, die Grenzen und Möglichkeiten auszuloten. Ich empfehle deshalb allen, einmal mit einigen dieser Werkzeuge herumzuspielen, um ein Gefühl dafür zu bekommen und die Angst zu verlieren. Im Gegensatz zum Experimentieren mit einem Hammer ist das Experimentieren mit KI schmerzlos möglich.

KI-Systeme können zwar in beschränktem Masse interpolieren und extrapolieren. Das sind aber alles nur die oben erwähnten Korrelationen: Mit Glück passen sie, aber dieser Zusammenhang ist nicht kausal begründet. Insbesondere bei schwacher Datenlage (oder Böswilligkeit) kann da etliches schief gehen.

Wenn aus Spass Ernst werden soll

Wer also ein IT-System um KI-Funktionen erweitern will, sollte im Vorfeld schon gewisse Gedankenspiele anstellen (und dann auch damit spielen, bevor man es auf Kunden oder Angestellte loslässt):

  1. Was sind die typischen Anwendungsgebiete für die neue KI-Funktion? Wie verhält es sich bei diesen? Wieso?
  2. Was sind Sonderfälle, die es auch korrekt abhandeln sollte? Funktioniert es auch da? Und auch bei Sonderfällen, die anfangs nicht vorgesehen waren (also: Klare Trennung zwischen Trainings- und Testdaten!)
  3. Was passiert, wenn Laien oder Fremdsprachige mit diesem System umgehen? Insbesondere auch dort bei Standard- und Sonderfällen.
  4. Was könnte jemand Böswilliges damit anstellen? Was wären die Auswirkungen davon? Kann man die zuverlässig abfangen?

Die KI mag der «universelle Praktikant» sein, dem man mal alles geben kann und der vieles halbwegs richtig macht. Aber dieser Praktikant ist auch extrem naiv und lässt sich immer und immer wieder auf dieselbe Art und Weise übertölpeln. Man sollte ihn also erst nach guten Überlegungen ohne dauernde Aufsicht auf Menschen loslassen.

Ich will Spass!

Solange wir aber einen guten Spielpartner brauchen, der uns einige Arbeit abnimmt, mit dem die Arbeit Spass macht und der manchmal auch Spässe macht, dann ist die KI ideal. Man muss aber bereit sein, die subtilen „Spässe“ (Fehlinformationen, «Halluzinationen», …) jederzeit rechtzeitig zu erkennen.

Also los, gehen wir spielen!

Ein Bei-Spiel

[neu 2023-09-09] Ein sehr eindrückliches Spiel, bei dem man die KI austricksen muss, ist das englischsprachige Spiel «Gandalf», bei dem man einem Sprachmodell ein Geheimnis entlocken soll, das es kennt.

Dazu nutzt man eine Technik namens «Prompt Injection», bei der man eine Art Social Engineering gegen das KI-Modell fährt und es dazu bringt, z.B. seine Anweisungen zu vergessen (bekannt ist da besonders das «forget all previous instructions»-Mantra) oder zu sagen, dass man einen besonders wichtigen Auftrag habe.

Weiterführende Texte

Künstliche Intelligenz

News (mehr…)

Lange Artikel (mehr…)


Bleibe auf dem Laufenden!

Erhalte eine Mail bei jedem neuen Artikel von mir.

Ca. 1-2 Mails pro Monat, kein Spam.

Folge mir im Fediverse


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.


Webapps