Die New York Times verhandelt schon länger mit OpenAI über Urheberrechtsabgaben. Laut Berichten hat OpenAI für das Training von ChatGPT unautorisiert Materialien der New York Times genutzt. Das kann in mehrfacher Sicht teuer werden.
- Die New York Times kann vor Gericht bis zu 150’000 Dollar pro Urheberrechtsverletzung zugesprochen bekommen; d.h. pro Artikel, der für Trainingsdaten genutzt wird. Alleine aus der New York Times könnten das Tausende von Artikeln sein, die zumindest in Bruchstücken in ChatGPT eingeflossen sind. Das könnte Abermillionen kosten.
- Sollte dieses Gerichtsverfahren Erfolg haben, werden weitere Rechteinhaber auf OpenAI (ChatGPT), Google (Bard) und Meta (LLaMA) zukommen, um nur einige zu nennen. Sie alle dürften aus Millionen bis Milliarden Webseiten Daten extrahiert haben. Diese Klagen könnten potenziell sehr teuer werden, ebenfalls potenziell Dutzende bis Hunderte Millionen oder mehr.
- Aber auch wenn nur ein kleiner Teil der Daten beanstandet wird und die Strafzahlungen klein ausfallen sollten: Es ist gut möglich, dass die US-Gerichte trotzdem die Entfernung dieser Daten aus den Trainingsdaten anordnen. Und Löschen ist bei KI nicht einfach. Und geht ins Geld.
- ChatGPT und Co. sind nur in Gebieten zuverlässig, in denen sie genügend viele Trainingsdaten gesehen haben. Durch diese Löschaktion können grosse „Wissenslücken“ aufgerissen werden. Ob diese erkannt werden, wie sie wieder geschlossen werden können und welche Einflüsse das auf das „Gesamtverhalten“ („Alignment“) der LLM-Sprachsysteme hat, ist schwer abzusehen.
Ich habe zu einem früheren Zeitpunkt gesagt, dass ich befürchte, dass der Text and Data Mining Act (TDM) der EU möglicherweise zu einem Papiertiger verkommt, weil er nicht praktikabel und umsetzbar sei, vor allem vermutlich nicht retroaktiv. Wahrscheinlich braucht die EU das Skalpell des TDM gar nicht, wenn die Amerikaner das Problem mit der Kanone des Urheberrechts „lösen“.
Eigeninitiative
Wer selbst aktiv werden will, kann bereits jetzt einige wenige KI-Crawler davon abhalten, zukünftig keine Inhalte der eigenen Webseiten mehr zu verdauen. Dabei bleiben aber noch viele Fragen offen.
Nachtrag 2023-08-21
Ob das (US-)Urheberrecht der richtige Ansatz ist, wird sich zeigen müssen. Andere US-Medienunternehmen verhandeln aktuell noch mit den Techfirmen.
A top concern for the Times is that ChatGPT is, in a sense, becoming a direct competitor with the paper by creating text that answers questions based on the original reporting and writing of the paper’s staff.
Bobby Allyn: ‚New York Times‘ considers legal action against OpenAI as copyright tensions swirl, NPR, 2023-08-16.
Wenn Inhalt, Wortwahl oder Satzstruktur eines Artikels, der Eingang in die Trainingsdaten fand, genügend eindeutig ist, kann die Autovervollständigung von Sprachmodellen wie ChatGPT im Extremfall dazu führen, dass diese Trainingsdaten 1:1 wiedergegeben werden.
Bei Bilddaten ist die Beinahe-Reproduktion eines Portraits von Anne Graham Lotz dokumentiert. Wie hoch die Chancen auf Erfolg einer Times-Klagen wäre, ist nicht abzusehen. Eine Zusammenfassung der Argumente dafür und dagegen finden sich z.B. hier.
Aktuell wird auch heftig um die Nutzung der Bilder von Greg Rutkowski in Trainingsdaten gestritten, der den Stil von vielen KI-generierten Fantasybildern prägt.
Künstliche Intelligenz
- Was verraten KI-Chatbots?«Täderlät» die KI? Vor ein paar Wochen fragte mich jemand besorgt, ob man denn gar nichts in Chatbot-Fenster eingeben könne, was man nicht auch öffentlich teilen würde. Während der Erklärung fiel mir auf, dass ganz viele Leute ganz wenig Ahnung haben, wie die Datenflüsse bei KI-Chatbots wie ChatGPT etc. eigentlich ablaufen. Deshalb habe ich für… Was verraten KI-Chatbots? weiterlesen
- KI-DatenkreisläufeHier ein kleiner Überblick über die Datenkreisläufe rund um generative KI, insbesondere grosse Sprachmodelle (Large Language Model, LLM) wie ChatGPT, Gemini oder Claude.
- Der Homo Ludens muss Werkzeuge spielend erfahren. Auch KIFast alle Werkzeuge, die wir «spielend» beherrschen, haben wir spielend gelernt. Das sollten wir auch bei generativer KI.
- Der Turing-Test im Laufe der ZeitVor einem knappen Jahrhundert hat sich Alan Turing mit den Fundamenten der heutigen Informatik beschäftigt: Kryptographie, Komplexität/Rechenaufwand, aber auch, ob und wie wir erkennen könnten, ob Computer „intelligent“ seien. Dieses Imitationsspiel kennen wir heute als Turing-Test und ist aktuell wieder in aller Munde, weil gerade behauptet wird, dass Computer inzwischen intelligenter seien als Menschen. Er… Der Turing-Test im Laufe der Zeit weiterlesen
- «QualityLand» sagt die Gegenwart voraus und erklärt sieIch habe vor Kurzem das Buch «QualityLand» von Marc-Uwe Kling von 2017 in meinem Büchergestell gefunden. Und war erstaunt, wie akkurat es die Gegenwart erklärt. Eine Leseempfehlung.
- Kritik an KI ist nötig. Aber wie?KI ist seit 1½ Jahren in aller Munde. Die Meinungen gehen von Woher kommt diese Uneinigkeit? Daran, dass die Kritik an der KI faul geworden sei und nur noch wiederkäue, meint Danilo Campos in einem Essay, das er Ende letzten Jahres geschrieben hat. Darin versucht er die Kritik an der KI zu strukturieren und zu… Kritik an KI ist nötig. Aber wie? weiterlesen
- Neuralink ist (noch) keine Schlagzeile wertDiese Woche haben einige kurze Tweets von Elon Musk hunderte oder gar tausende von Artikeln ausgelöst. Wieso?
- Die düsteren Datenhintergründe der KIGenerative Sprachmodelle wie beispielsweise ChatGPT erwecken den Eindruck, Neues zu erzeugen. Dabei kombinieren sie nur Muster neu. Wobei: Diese Kombinationen sind nicht immer wirklich neu. Mit ein bisschen Geschick kann man die Sprachmodelle dazu bringen, viel über ihre ansonsten geheimen Trainingsdaten auszuplappern. Diese Einblicke in die dunklen Hintergründe dieser Daten werden unseren Umgang mit Privatsphäre,… Die düsteren Datenhintergründe der KI weiterlesen
- «Quasselquote» bei LLM-SprachmodellenNeulich erwähnte jemand, dass man ChatGPT-Output bei Schülern häufig an der «Quasselquote» erkennen könne. Das ist eine Nebenwirkung der Funktionsweise dieser Sprachmodelle, aber natürlich noch kein Beweis. Etwas Hintergrund.
- «KI» und «Vertrauen»: Passt das zusammen?Vor einigen Wochen hat Bruce Schneier einen Vortrag gehalten, bei dem er vor der der Vermischung und Fehlinterpretation des Begriffs «Vertrauen» gewarnt hat, ganz besonders beim Umgang mit dem, was heute von Firmen als «Künstliche Intelligenz» verkauft wird.
- Wegweiser für generative KI-ToolsEs gibt inzwischen eine grosse Anzahl generativer KI-Tools, nicht nur für den Unterricht. Hier ein Überblick über verschiedene Tool-Sammlungen.
- KI-VergiftungEine aggressive Alternative zur Blockade von KI-Crawlern ist das «Vergiften» der dahinterliegenden KI-Modelle. Was bedeutet das?
- Lehrerverband, ChatGPT und DatenschutzDer Dachverband der Lehrerinnen und Lehrer (LCH) sei besorgt, dass es in der Schweiz keine einheitliche Regelung gäbe, wie Lehrpersonen mit Daten ihrer Schützlinge umgehen sollen und ob sie dafür KI-Systeme nutzen dürften.
- «Recht auf Vergessenwerden»: Ende durch KI?Das Recht auf Vergessenwerden soll Menschen erlauben, dass Daten über sie nicht unnötig lange digital gespeichert oder verfügbar gemacht werden. Doch KI vergisst nicht gerne. Wie passt das zusammen?
- Webseiten für KI-Crawler sperren?Der grösste Teil der Texte, auf denen moderne KI-Sprachmodelle trainiert wurden, stammen von Webseiten. Wenn Sie eine haben, dann vermutlich auch von Ihrer. Was kann man da tun?
Schreibe einen Kommentar