Die KI ChatGPT und die Heraus­for­derungen für die Gesellschaft


Was lange währt, wird endlich, äh, published.

Mein neuer DNIP-Artikel zu ChatGPT ist online, in drei Teilen:

  1. unterhaltsam (mit Einblick),
  2. seriös (mit Durchblick) und
  3. nachdenklich (mit Weitblick).

Mit Themen wie:

  • Was taugt ChatGPT als Informatiker? (Gute/böse Programme, Fehlersuche, Emulation, Konzepte)
  • Was kann ChatGPT sonst? (Prüfungsfragen, Fehler, Fakten, Humor, Rassismus)
  • Wie funktioniert ChatGPT? (Dazu am Montag dann noch mehr, ebenfalls auf DNIP)

Aber vor allem:

  • Was bedeutet das für uns als Nutzer, Leser, Gesellschaft?
  • Worüber müssten wir uns dringend Gedanken machen?

Und natürlich: Ganz viele Links zu Hintergrund, weiterführenden Informationen und Tools.

(Wer sich über das Teaserbild wundert: Das ist der Versuch von ChatGPT, einen Irrgarten zu programmieren. Mehrfach subtil falsch, deshalb wurde es stattdessen auch ein Setzkasten…)

Hier geht es zum ChatGPT-und-Gesellschaft-Artikel.

Künstliche Intelligenz

  • Neuralink ist (noch) keine Schlagzeile wert
    Diese Woche haben einige kurze Tweets von Elon Musk hunderte oder gar tausende von Artikeln ausgelöst. Wieso?
  • Die düsteren Datenhintergründe der KI
    Generative Sprachmodelle wie beispielsweise ChatGPT erwecken den Eindruck, Neues zu erzeugen. Dabei kombinieren sie nur Muster neu. Wobei: Diese Kombinationen sind nicht immer wirklich neu. Mit ein bisschen Geschick kann man die Sprachmodelle dazu bringen, viel über ihre ansonsten geheimen Trainingsdaten auszuplappern. Diese Einblicke in die dunklen Hintergründe dieser Daten werden unseren Umgang mit Privatsphäre, … Weiterlesen: Die düsteren Datenhintergründe der KI
  • «Quasselquote» bei LLM-Sprachmodellen
    Neulich erwähnte jemand, dass man ChatGPT-Output bei Schülern häufig an der «Quasselquote» erkennen könne. Das ist eine Nebenwirkung der Funktionsweise dieser Sprachmodelle, aber natürlich noch kein Beweis. Etwas Hintergrund.
  • «KI» und «Vertrauen»: Passt das zusammen?
    Vor einigen Wochen hat Bruce Schneier einen Vortrag gehalten, bei dem er vor der der Vermischung und Fehlinterpretation des Begriffs «Vertrauen» gewarnt hat, ganz besonders beim Umgang mit dem, was heute von Firmen als «Künstliche Intelligenz» verkauft wird.
  • Wegweiser für generative KI-Tools
    Es gibt inzwischen eine grosse Anzahl generativer KI-Tools, nicht nur für den Unterricht. Hier ein Überblick über verschiedene Tool-Sammlungen.
  • KI-Vergiftung
    Eine aggressive Alternative zur Blockade von KI-Crawlern ist das «Vergiften» der dahinterliegenden KI-Modelle. Was bedeutet das?
  • Lehrerverband, ChatGPT und Datenschutz
    Der Dachverband der Lehrerinnen und Lehrer (LCH) sei besorgt, dass es in der Schweiz keine einheitliche Regelung gäbe, wie Lehrpersonen mit Daten ihrer Schützlinge umgehen sollen und ob sie dafür KI-Systeme nutzen dürften.
  • «Recht auf Vergessenwerden»: Ende durch KI?
    Das Recht auf Vergessenwerden soll Menschen erlauben, dass Daten über sie nicht unnötig lange digital gespeichert oder verfügbar gemacht werden. Doch KI vergisst nicht gerne. Wie passt das zusammen?
  • Webseiten für KI-Crawler sperren?
    Der grösste Teil der Texte, auf denen moderne KI-Sprachmodelle trainiert wurden, stammen von Webseiten. Wenn Sie eine haben, dann vermutlich auch von Ihrer. Was kann man da tun?

Bleibe auf dem Laufenden!

Erhalte eine Mail bei jedem neuen Artikel von mir.

Ca. 1-2 Mails pro Monat, kein Spam.

Folge mir im Fediverse


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.


Webapps