Identifikation von KI-Kunst


KI-Kunst ist auf dem Vormarsch, sowohl was die Qualität als auch die Quantität betrifft. Es liegt (leider) in der menschlichen Natur, einiges davon als „echte“, menschgeschaffene Kunst zu vermarkten. Hier sind einige Anzeichen, die helfen können, KI-Kunst zu erkennen.

This article is also available in English 🇬🇧: «Identifying AI Art».

Programme wie DALL•E 2, MidJourney oder StableDiffusion machen es einfach, gut aussehende Bilder zu erstellen. Das Teaser-Bild für diesen Artikel wurde zum Beispiel aus dem herausgeschnitten, was DALL•E 2 zurückgab, als ich es nach etwas fragte, das „KI-Kunst mit einer Lupe untersuchen“ darstellen soll („inspecting ai art with a magnifying glass“).

Sie sehen ziemlich überzeugend aus, nicht? Woran könnten wir erkennen, dass sie nicht von einem menschlichen Künstler gemacht wurden? Hier sind einige Hinweise. Natürlich wird die generative KI mit der Zeit immer besser werden, und auch die menschlichen KI-Betreiber, die versuchen, die KI-Werke als ihre eigenen zu „verkaufen“, werden versuchen, einige dieser Merkmale zu verschleiern.

Auch wenn diese Merkmale sich also mit der Zeit verändern werden, macht es trotzdem Sinn, sie einmal aufzuzählen. Die Beispiele hier sind durch die Miniserie „Reproduzierbare KI-Bilderzeugung“ (Teil 1 auf Deutsch, Teil 2 auf Englisch) illustriert. Da es sich um Bilder handelt, die ihren KI-Ursprung nicht zu verbergen versuchen (weder auf der Prompt- noch auf der Post-Processing-Ebene), eignen sie sich gut als Studienobjekte.

Dieser Beitrag wurde inspiriert von einem (kurzlebigen und inzwischen verschwundenen) Beitrag von menschlichen Digitalkünstler Neobscura [NSFW] inspiriert, wofür ich dankbar bin.

Wasserzeichen

Am offensichtlichsten (und einfachsten zu entfernen) sind Wasserzeichen, die durch Nachbearbeitung in den KI-Dienst eingebettet werden. Bei DALL-E 2 ist zum Beispiel in der rechten unteren Ecke folgendes eingebettet (aus dem Teaser-Bild):

Es ist trivial, das Bild zu beschneiden oder manuell zu rekonstruieren, was sich darunter befinden könnte. Erwarten Sie also nicht, dass ein „Fälscher“ das drin lässt.

[Neu 2023-09-24] Je nach System sind auch Marken vorhanden, die nicht direkt ersichtlich sind. So fügt DALL•E 2 zwei EXIF-Felder in den Metadaten, „OpenAI--ImageGeneration--generation-<zufällig aussehende Zeichenfolge>“ und „Made with OpenAI Labs„. Auch diese können absichtlich oder unabsichtlich beim Bearbeiten entfernt werden. (Die Bilder hier und hier können als Beispiele dienen. Die Original-PNG-Bilder, in denen die Informationen eingebettet sind, erscheinen durch Klick auf die Miniaturbilder.)

Text

Auf den obigen Bildern „Inspektion von KI-Kunst“ ist der Text erstaunlich klar (vermutlich wurde versucht, ein kombiniertes Wort aus „AI“ und „Art“ zu bilden). Oft ist der Text jedoch bestenfalls sehr grob. Selbst wenn die Zeichen erkennbar sind, sind die Umrisse oft gezackt.

Je nach Kontext kann die Schrift (durch Prompt oder Nachbearbeitung) auch leicht geändert werden. Und wahrscheinlich werden KI-Kunstplattformen in Zukunft lernen, besser mit Text umzugehen.

Unmotiviertes Rauschen oder Detail

Ein generiertes Bild basiert im Wesentlichen auf einer Collage aus verschiedenen Quellen. Daher werden in der Regel Quellen unterschiedlicher Stile verwendet, auch wenn dies teilweise über die Eingabeaufforderung gesteuert werden kann. Einige dieser Stilunterschiede schaffen es in das Zielbild, wo sie ihren KI-Ursprung verraten können: Auflösung, Glätte, Vorhandensein/Härte/Auflösung von Texturen und mehr.

Wann immer es unmotivierte Veränderungen in der Feinstruktur des Bildes gibt, ist das ein guter Hinweis auf KI-Kunst. Einiges davon kann natürlich durch Glättungs- oder Verpixelungsfilter verdeckt werden.

Feinstruktur gegen Grobstruktur

Das Heranzoomen von Details kann zeigen, dass ein Gegenstand nicht das ist, was er zu sein vorgibt: Bäume, die nicht aus Blättern der richtigen Grösse oder Art bestehen, Schindeln auf dem Dach, die eigentlich Ziegel sind, … Wie beim „unaufgeforderten Rauschen oder Detail“ oben ist die KI im Wesentlichen eine Copy-Paste-Operation auf Steroiden und nicht ein kohärenter Bildgenerator. Mit all‘ den Problemen, die Copy-Paste mit sich bringt.

Solche Anzeichen sind wahrscheinlich schwer (halb-)automatisch zu entfernen und wahrscheinlich ein gutes Indiz, dass etwas mit dem Bild nicht stimmt.

Mangel an Symmetrie

Nur weil etwas in der realen Welt symmetrisch ist, ist das noch lange kein Grund für die KI, Symmetrie zu generieren.

Das kann wohl nur mit händischer Korrektur oder Nachzeichnenlassen durch die KI („inpainting“). Aber auch hier werden die Generatoren mit der Zeit besser werden.

Unmögliches in 3D

Aktuelle KI-Bildgeneratoren haben noch keine echte Kenntnis über den 3D-Raum. Deshalb findet sich in den generierten KI-Bildern „innovative“ Geometrie. Besonders Bänke und Mechanik haben sich bei mir als zu kompliziert für die KI herausgestellt.

Diese Probleme können mit zusätzlichen Versuchen oder Änderung des Prompts wahrscheinlich korrigiert werden. Ganz besonders hier wird sich in den nächsten Monaten noch viel ändern: Bereits jetzt gibt es erste Möglichkeiten, KI-Kunst auf 3D-Modelle zu projizieren oder 3D-Modelle zu generieren.

Licht und Schatten

Fehlerhafte Reflexionen und Schatten sind gute Indikatoren für manipulierte („geshoppte“) Bilder. ein gutesThese are known to help identifying manipulated photos. And remain friends when identifying AI generated art.

Auch dies wird sich wahrscheinlich anlässlich der Einführung von echten 3D-Szenen in die Bildgenerierungspipeline verbessern.

Augen und Haare

Augen, die nicht in die gleiche Richtung blicken, verzerrte Augenformen oder unnatürliches Haar sind gute Indizien für Bilder, die durch eine KI erzeugt wurden. Die Augen von Tieren scheinen besonders empfänglich für Fehler zu sein, wahrscheinlich eine Folge der knapperen Trainingsdaten.

Insbesondere menschliche Augen, Haare und Gesichter werden wohl noch fleissig getunt werden; diese Aspekte werden zukünftig also seltener als Indizien herhalten können.

Gliedmassen und Finger

Von Kinder- und Comic-Zeichnungen kennt man das, dass die Anzahl Arme, Beine oder Finger nicht mit unserer täglichen Erfahrung übereinstimmt. Seitliche Ansichten von Vierbeinern würden häufig Zählfehler aufweisen, was sich aber mit den ausgewählten Bildern nicht verifizieren liess.

Mittels Inpainting kann das wahrscheinlich häufig korrigiert werden; es hilft auch, wenn nichts Ungewöhnliches neben den Gliedmassen gezeichnet werden soll. Auch das wird wohl mit besserem Training weniger auffällig werden.

[Hinzugefügt 2023-02-04:] Das „bessere Training“ dürfte aus drei Dingen bestehen:

  1. Mehr und grössere Hände in den Bildern
  2. Hände „alleine“ (also auf ruhigem Hintergrund und ohne dass sie etwas/jemanden umfassen)
  3. Hände aus verschiedenen Blickwinkeln

Zusammenfassung

Vieles kann bei der KI-Bildgenerierung schief gehen; ein genauer Blick lohnt sich. Natürlich kann es auch falsch positive Beurteilungen geben (ein echter menschlicher Digitalkünstler hat das Bild erstellt, war aber nachlässig oder hat das absichtlich als Stilelement genutzt); genau wie auch falsch negative (die KI-Kunst ist zufällig gut genug oder durch genügend viele Iterationen, Inpainting oder Nachbearbeitung gut genug gemacht worden).

Literatur

Künstliche Intelligenz


Bleibe auf dem Laufenden!

Erhalte eine Mail bei jedem neuen Artikel von mir.

Ca. 1-2 Mails pro Monat, kein Spam.

Folge mir im Fediverse


3 Antworten zu „Identifikation von KI-Kunst“

  1. Michael Spengler

    Ich bedaure sehr, dass sich der Begriff „Künstliche Intelligenz“ durchgesetzt hat. Er ist einfach unzutreffend. Es gibt schon für menschliche Intelligenz keine wissenschaftliche Definition. Aber bei den neuronalen Netzwerken bin ich mir sicher, dass es sich um überhaupt keine Intelligenz handelt. Nicht einmal eine künstliche. Neuronale Netzwerke denken nicht, sie berechnen. Die Rechenoperationen in den Neuronen sind sogar ziemlich simpel. Sie sind außerdem passiv und tun rein gar nichts, wenn nicht irgendeine Eingabe erfolgt. Wenn Sie also schreiben „Die KI versteht nur Bahnhof“, verstehe ich das als Kritik und sie sollte doch eigentlich verstehen. Nur das ist doch gar nicht vorgesehen.
    Inzwischen sind das Generieren von Bildern mit Hilfe von neuronalen Netzwerken ja schon sehr viel besser geworden als es das vor einem Jahr war. Inzwischen gibt es wahrscheinlich mehr Künstler, die diese Technologie nutzen, als die, die sie kritisieren. Diese Diskussion erinnert mich sehr an die eine Zeit vor nun schon fast 200 Jahren, als die Fotografie unzählige Portrait-Maler arbeitslos machte oder diese dann selbst zu Fotografen wurden. Damals sah man auch nur den technischen Vorgang des Fotografierens, das Belichten durch Drücken des Auslösers.
    Übrigens basiert die Kunst von Malern und Bildhauern und auch von Fotografen ebenfalls immer auf dem, was andere zuvor geschaffen haben. Sie schaffen nicht etwas aus dem Nichts. Deshalb sind Idee und Stil nichts, was vom Urheberrecht geschützt ist. Denn das wäre das Ende der Entwicklung von Kunst.
    Sicher sind die heute generierten Bilder zu 90 % „nerdiger Kitsch“, wie das der Redakteur Dr. Wolfgang Stieler von Heise.de in einem Artikel einmal treffend bezeichnet hat. Aber es ist möglich, echte Kunst (ohne Anführungsstriche) mit Hilfe von neuronalen Netzwerken zu schaffen. Das passiert aber eben nicht gerade mal in 5 Minuten, wie das immer wieder gerne geschrieben wird. Und ja, man kann diese Kunst auch ohne Täuschung und Schummelei verkaufen (auch ohne Anführungsstriche).
    Am Ende ist ja einzig entscheidend, wie die Rezipienten das Bild sehen. Sie entscheiden ob das was sie sehen, für sie Kunst ist oder nicht.

    1. Marcel Waldvogel
      Marcel Waldvogel

      Danke für das Feedback. Der Artikel stammt aus der Frühzeit der Bildgeneratoren, als noch keine feingranularen Änderungen möglich waren. Hier ein paar Punkte:

      • Es geht nicht darum, KI-Bilder zu verteufeln, sondern ich bin gegen die Irreführung.
      • Ich bin für eine Deklarationspflicht, bei der klar werden soll, welche Entitäten (Mensch, Computer, …) was zum Werk beigetragen haben. Statt «Öl auf Leinwand» soll dann beispielsweise «Collage von KI-Outputs» oder was auch immer stehen.
      • Bei Kunsthandwerk steht daneben meist «Handarbeit». Bis vor einigen Jahren konnte man bei Kunst meist von Handarbeit ausgehen. Dies hat sich aber geändert, es wird aber häufig immer noch implizit angenommen. Wenn das angebliche Kunsthandwerk dann aber doch Massenoutput ist, ist das schäbig. KI-Output ohne Deklaration halte ich für ähnlich falsch.
      • Es geht mir auch um Awareness und Empowerment, insbesondere bei der Erkennung von Bildern, mit denen Fehlinformationen gestreut werden sollen.
      1. Michael Spengler

        Da bin ich in allen Punkten Ihrer Meinung. 😉

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.


Webapps