Todesstoss für ChatGPT & Co?


Die New York Times verhandelt schon länger mit OpenAI über Urheberrechtsabgaben. Laut Berichten hat OpenAI für das Training von ChatGPT unautorisiert Materialien der New York Times genutzt. Das kann in mehrfacher Sicht teuer werden.

  1. Die New York Times kann vor Gericht bis zu 150’000 Dollar pro Urheberrechtsverletzung zugesprochen bekommen; d.h. pro Artikel, der für Trainingsdaten genutzt wird. Alleine aus der New York Times könnten das Tausende von Artikeln sein, die zumindest in Bruchstücken in ChatGPT eingeflossen sind. Das könnte Abermillionen kosten.
  2. Sollte dieses Gerichtsverfahren Erfolg haben, werden weitere Rechteinhaber auf OpenAI (ChatGPT), Google (Bard) und Meta (LLaMA) zukommen, um nur einige zu nennen. Sie alle dürften aus Millionen bis Milliarden Webseiten Daten extrahiert haben. Diese Klagen könnten potenziell sehr teuer werden, ebenfalls potenziell Dutzende bis Hunderte Millionen oder mehr.
  3. Aber auch wenn nur ein kleiner Teil der Daten beanstandet wird und die Strafzahlungen klein ausfallen sollten: Es ist gut möglich, dass die US-Gerichte trotzdem die Entfernung dieser Daten aus den Trainingsdaten anordnen. Und Löschen ist bei KI nicht einfach. Und geht ins Geld.
  4. ChatGPT und Co. sind nur in Gebieten zuverlässig, in denen sie genügend viele Trainingsdaten gesehen haben. Durch diese Löschaktion können grosse „Wissenslücken“ aufgerissen werden. Ob diese erkannt werden, wie sie wieder geschlossen werden können und welche Einflüsse das auf das „Gesamtverhalten“ („Alignment“) der LLM-Sprachsysteme hat, ist schwer abzusehen.

Ich habe zu einem früheren Zeitpunkt gesagt, dass ich befürchte, dass der Text and Data Mining Act (TDM) der EU möglicherweise zu einem Papiertiger verkommt, weil er nicht praktikabel und umsetzbar sei, vor allem vermutlich nicht retroaktiv. Wahrscheinlich braucht die EU das Skalpell des TDM gar nicht, wenn die Amerikaner das Problem mit der Kanone des Urheberrechts „lösen“.

Eigeninitiative

Wer selbst aktiv werden will, kann bereits jetzt einige wenige KI-Crawler davon abhalten, zukünftig keine Inhalte der eigenen Webseiten mehr zu verdauen. Dabei bleiben aber noch viele Fragen offen.

Nachtrag 2023-08-21

Ob das (US-)Urheberrecht der richtige Ansatz ist, wird sich zeigen müssen. Andere US-Medienunternehmen verhandeln aktuell noch mit den Techfirmen.

A top concern for the Times is that ChatGPT is, in a sense, becoming a direct competitor with the paper by creating text that answers questions based on the original reporting and writing of the paper’s staff.

Bobby Allyn: ‚New York Times‘ considers legal action against OpenAI as copyright tensions swirl, NPR, 2023-08-16.

Wenn Inhalt, Wortwahl oder Satzstruktur eines Artikels, der Eingang in die Trainingsdaten fand, genügend eindeutig ist, kann die Autovervollständigung von Sprachmodellen wie ChatGPT im Extremfall dazu führen, dass diese Trainingsdaten 1:1 wiedergegeben werden.

Bei Bilddaten ist die Beinahe-Reproduktion eines Portraits von Anne Graham Lotz dokumentiert. Wie hoch die Chancen auf Erfolg einer Times-Klagen wäre, ist nicht abzusehen. Eine Zusammenfassung der Argumente dafür und dagegen finden sich z.B. hier.

Aktuell wird auch heftig um die Nutzung der Bilder von Greg Rutkowski in Trainingsdaten gestritten, der den Stil von vielen KI-generierten Fantasybildern prägt.

Künstliche Intelligenz

  • Neuralink ist (noch) keine Schlagzeile wert
    Diese Woche haben einige kurze Tweets von Elon Musk hunderte oder gar tausende von Artikeln ausgelöst. Wieso?
  • Die düsteren Datenhintergründe der KI
    Generative Sprachmodelle wie beispielsweise ChatGPT erwecken den Eindruck, Neues zu erzeugen. Dabei kombinieren sie nur Muster neu. Wobei: Diese Kombinationen sind nicht immer wirklich neu. Mit ein bisschen Geschick kann man die Sprachmodelle dazu bringen, viel über ihre ansonsten geheimen Trainingsdaten auszuplappern. Diese Einblicke in die dunklen Hintergründe dieser Daten werden unseren Umgang mit Privatsphäre, … Weiterlesen: Die düsteren Datenhintergründe der KI
  • «Quasselquote» bei LLM-Sprachmodellen
    Neulich erwähnte jemand, dass man ChatGPT-Output bei Schülern häufig an der «Quasselquote» erkennen könne. Das ist eine Nebenwirkung der Funktionsweise dieser Sprachmodelle, aber natürlich noch kein Beweis. Etwas Hintergrund.
  • «KI» und «Vertrauen»: Passt das zusammen?
    Vor einigen Wochen hat Bruce Schneier einen Vortrag gehalten, bei dem er vor der der Vermischung und Fehlinterpretation des Begriffs «Vertrauen» gewarnt hat, ganz besonders beim Umgang mit dem, was heute von Firmen als «Künstliche Intelligenz» verkauft wird.
  • Wegweiser für generative KI-Tools
    Es gibt inzwischen eine grosse Anzahl generativer KI-Tools, nicht nur für den Unterricht. Hier ein Überblick über verschiedene Tool-Sammlungen.
  • KI-Vergiftung
    Eine aggressive Alternative zur Blockade von KI-Crawlern ist das «Vergiften» der dahinterliegenden KI-Modelle. Was bedeutet das?
  • Lehrerverband, ChatGPT und Datenschutz
    Der Dachverband der Lehrerinnen und Lehrer (LCH) sei besorgt, dass es in der Schweiz keine einheitliche Regelung gäbe, wie Lehrpersonen mit Daten ihrer Schützlinge umgehen sollen und ob sie dafür KI-Systeme nutzen dürften.
  • «Recht auf Vergessenwerden»: Ende durch KI?
    Das Recht auf Vergessenwerden soll Menschen erlauben, dass Daten über sie nicht unnötig lange digital gespeichert oder verfügbar gemacht werden. Doch KI vergisst nicht gerne. Wie passt das zusammen?
  • Webseiten für KI-Crawler sperren?
    Der grösste Teil der Texte, auf denen moderne KI-Sprachmodelle trainiert wurden, stammen von Webseiten. Wenn Sie eine haben, dann vermutlich auch von Ihrer. Was kann man da tun?
  • KI und die Arbeitswelt der Zukunft
    Michael Seemann hat in rund 100 sehr gut lesbaren Seiten das Wichtigste zusammengefasst, was wir über ChatGPT & Co wissen. Und ein paar Szenarien für die Arbeitswelt analysiert.
  • Todesstoss für ChatGPT & Co?
    Die New York Times verhandelt schon länger mit OpenAI über Urheberrechtsabgaben. Laut Berichten hat OpenAI für das Training von ChatGPT unautorisiert Materialien der New York Times genutzt. Das kann in mehrfacher Sicht teuer werden. Ich habe zu einem früheren Zeitpunkt gesagt, dass ich befürchte, dass der Text and Data Mining Act (TDM) der EU möglicherweise … Weiterlesen: Todesstoss für ChatGPT & Co?
  • Sinkt OpenAI?
    Schlagzeilen machen die Runde, dass OpenAI, die Firma hinter ChatGPT, schon nächstes Jahr Konkurs gehen könnte. Ein Versuch einer Analyse.
  • Goethe oder GPThe?
    In «Wie funktioniert ChatGPT?» habe ich die Experimente von Andrej Karpathy mit Shakespeare-Texten wiedergegeben. Aber funktioniert das auch auf Deutsch? Zum Beispiel mit Goethe? Finden wir es heraus!
  • KI: Alles nur Zufall?
    Wer von einer «Künstlichen Intelligenz» Texte oder Bilder erzeugen lässt, weiss, dass das Resultat stark auf Zufall beruht. Vor Kurzem erschien in der NZZ ein Beitrag, der die Unzuverlässigkeit der KI vor allem dem Zufall in die Schuhe schob. Doch so einfach ist das nicht.
  • Hype-Tech
    Wieso tauchen gewisse Hype-Themen wie Blockchain oder Maschinelles Lernen/Künstliche Intelligenz regelmässig in IT-Projekten auf, obwohl die Technik nicht wirklich zur gewünschten Lösung passt? Oder es auch einfachere, bessere Ansätze gäbe? Felix von Leitner hielt im Herbst 2021 einen Vortrag zu «Hype-Tech», in dem er einige Gründe dafür aufzeigt (Navigation in den Folien mittels Wischgesten oder … Weiterlesen: Hype-Tech

Bleibe auf dem Laufenden!

Erhalte eine Mail bei jedem neuen Artikel von mir.

Ca. 1-2 Mails pro Monat, kein Spam.

Folge mir im Fediverse


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.


Webapps