KI-Vergiftung


Eine aggressive Alternative zur Blockade von KI-Crawlern ist das «Vergiften» der dahinterliegenden KI-Modelle. Was bedeutet das?

Viele Daten aus Webseiten, Büchern und Grafiken sind bereits in die KI-Modelle geflossen. Ob dies urheberrechtskonform geschehen ist und was das für daraus generierte Outputs bedeutet: Das ist immer noch ein juristisch unklares Feld. Aktuell scheint die Devise zu sein: «Move fast and break things».

Aber einige der generativen KIs bieten Webseitenbetreibern inzwischen die Möglichkeit, den Fluss zusätzlicher Daten an ihre KI-Modelle einzuschränken.

Einigen Künstlern (und Wissenschaftlern) scheint das nicht zu gefallen, sie wollen mehr. Vielleicht sogar sowas wie Rache. Und daher:

Wie vergifte ich eine KI?

Machen wir das doch Schritt für Schritt:

Was macht der Urheber?

  1. Ein Urheber, nennen wir ihn Urs, hat ein grafisches Werk geschaffen (Foto, Bild, …).
  2. Urs will das Werk vielleicht sogar ins Internet stellen. Er hat aber keine Lust, es generativen Bild-KIs wie DALL•E, StableDiffusion oder MidJourney zur Verfügung zu stellen.
  3. Urs vertraut nicht darauf, dass die Crawler dieser generativen KIs das Bild auf seiner Webseite oder anderswo nicht doch indexieren.
  4. Er ist aber bereit, für seine Internet-Repräsentation des Werks eine kleine Qualitätseinbusse hinzunehmen.
  5. Er nutzt einen Software, welche sein Bild mit einem leichten Rauschen unterlegt, mit dem Zweck, dass die Lernmechanismen der KIs dieses Bild dann als etwas anderes erkennen (wie hier: Da wird ein Faultier unmerklich so modifiziert, dass die ML-Klassifikation es nachher als Rennauto zu erkennen glaubt).

Beispielsweise kann eine Katze so modifiziert werden, dass sie als Hund erkannt würde.

Ein Ausschnitt einer KI-Poisoning-Illustration des Glaze-Teams, via Ars Technica.

Was macht das KI-System beim Lernen?

Für jedes vom Crawler gefundene Bild lauft (sehr vereinfacht) eine Variante dieses Workflows ab:

  1. Das Bild bzw. Teile davon werden an eine Bilderkennungssoftware (auf Basis von Maschinellem Lernen) weitergegeben.
  2. Diese Bilderkennungssoftware versieht das Bild mit Labeln, welche die erkannten Objekte bezeichnen („labelling“).
  3. Die so gelabelten Ausschnitte werden als paar trainiert.

Wenn die Katze als Hund erkannt wird, wird ihr Bild mit den Bildern aller Hunde vermischt, d.h. das Modell hat dann in seinem mit „Hund“ betitelten Bereich sowohl Bilder von Hunden als auch von Katzen.

Was macht das KI-System beim Generieren von Bildern?

  1. Wenn ein bestimmtes Objekt gewünscht ist (beispielsweise ein Hund), werden die Muster aus dem mit entsprechend betitelten Bereich abgerufen.
  2. Daraus wird ein Teil des gewünschten Bildes erzeugt.

Falls also jemand einen „Hund“ wünscht, kommt — je nach Verhältnis zwischen echten und „falschen“ Hunden im „Hunde“-Bereich — eine Grafik heraus, die mehr wie ein Hund oder mehr wie eine Katze aussieht. Wenn genügend viele falsche Trainingsdaten gefüttert wurden, resultieren ganz schlechte Resultate.

Der KI-Bildgenerator wurde vergiftet.

Quellen

Das Teaserbild ist ein Ausschnitt einer KI-Poisoning-Illustration des Glaze-Teams, via Ars Technica.

Verwandte Artikel von mir


Künstliche Intelligenz


Bleibe auf dem Laufenden!

Erhalte eine Mail bei jedem neuen Artikel von mir.

Ca. 1-2 Mails pro Monat, kein Spam.

Folge mir im Fediverse


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.


Webapps