KI-Kunst ist auf dem Vormarsch, sowohl was die Qualität als auch die Quantität betrifft. Es liegt (leider) in der menschlichen Natur, einiges davon als echte Kunst zu vermarkten. Hier sind einige Anzeichen, die helfen können, KI-Kunst zu erkennen.
This article is also available in English 🇬🇧: «Identifying AI Art».
Programme wie DALL•E 2, MidJourney oder StableDiffusion machen es einfach, gut aussehende Bilder zu erstellen. Das Teaser-Bild für diesen Artikel wurde zum Beispiel aus dem herausgeschnitten, was DALL•E 2 zurückgab, als ich es nach etwas fragte, das „KI-Kunst mit einer Lupe untersuchen“ darstellen soll („inspecting ai art with a magnifying glass“).




Sie sehen ziemlich überzeugend aus, nicht? Woran könnten wir erkennen, dass sie nicht von einem menschlichen Künstler gemacht wurden? Hier sind einige Hinweise. Natürlich wird die generative KI mit der Zeit immer besser werden, und auch die menschlichen KI-Betreiber, die versuchen, die KI-Werke als ihre eigenen zu „verkaufen“, werden versuchen, einige dieser Merkmale zu verschleiern.
Auch wenn diese Merkmale sich also mit der Zeit verändern werden, macht es trotzdem Sinn, sie einmal aufzuzählen. Die Beispiele hier sind durch die Miniserie „Reproduzierbare KI-Bilderzeugung“ (Teil 1 auf Deutsch, Teil 2 auf Englisch) illustriert. Da es sich um Bilder handelt, die ihren KI-Ursprung nicht zu verbergen versuchen (weder auf der Prompt- noch auf der Post-Processing-Ebene), eignen sie sich gut als Studienobjekte.
Dieser Beitrag wurde inspiriert von einem (kurzlebigen und inzwischen verschwundenen) Beitrag von menschlichen Digitalkünstler Neobscura [NSFW] inspiriert, wofür ich dankbar bin.
Wasserzeichen
Am offensichtlichsten (und einfachsten zu entfernen) sind Wasserzeichen, die durch Nachbearbeitung in den KI-Dienst eingebettet werden. Bei DALL-E 2 ist zum Beispiel in der rechten unteren Ecke folgendes eingebettet (aus dem Teaser-Bild):

Es ist trivial, das Bild zu beschneiden oder manuell zu rekonstruieren, was sich darunter befinden könnte. Erwarten Sie also nicht, dass ein „Fälscher“ das drin lässt.
[Neu 2023-09-24] Je nach System sind auch Marken vorhanden, die nicht direkt ersichtlich sind. So fügt DALL•E 2 zwei EXIF-Felder in den Metadaten, „OpenAI--ImageGeneration--generation-
<zufällig aussehende Zeichenfolge>“ und „Made with OpenAI Labs
„. Auch diese können absichtlich oder unabsichtlich beim Bearbeiten entfernt werden. (Die Bilder hier und hier können als Beispiele dienen. Die Original-PNG-Bilder, in denen die Informationen eingebettet sind, erscheinen durch Klick auf die Miniaturbilder.)
Text
Auf den obigen Bildern „Inspektion von KI-Kunst“ ist der Text erstaunlich klar (vermutlich wurde versucht, ein kombiniertes Wort aus „AI“ und „Art“ zu bilden). Oft ist der Text jedoch bestenfalls sehr grob. Selbst wenn die Zeichen erkennbar sind, sind die Umrisse oft gezackt.





Je nach Kontext kann die Schrift (durch Prompt oder Nachbearbeitung) auch leicht geändert werden. Und wahrscheinlich werden KI-Kunstplattformen in Zukunft lernen, besser mit Text umzugehen.
Unmotiviertes Rauschen oder Detail
Ein generiertes Bild basiert im Wesentlichen auf einer Collage aus verschiedenen Quellen. Daher werden in der Regel Quellen unterschiedlicher Stile verwendet, auch wenn dies teilweise über die Eingabeaufforderung gesteuert werden kann. Einige dieser Stilunterschiede schaffen es in das Zielbild, wo sie ihren KI-Ursprung verraten können: Auflösung, Glätte, Vorhandensein/Härte/Auflösung von Texturen und mehr.




Wann immer es unmotivierte Veränderungen in der Feinstruktur des Bildes gibt, ist das ein guter Hinweis auf KI-Kunst. Einiges davon kann natürlich durch Glättungs- oder Verpixelungsfilter verdeckt werden.
Feinstruktur gegen Grobstruktur
Das Heranzoomen von Details kann zeigen, dass ein Gegenstand nicht das ist, was er zu sein vorgibt: Bäume, die nicht aus Blättern der richtigen Grösse oder Art bestehen, Schindeln auf dem Dach, die eigentlich Ziegel sind, … Wie beim „unaufgeforderten Rauschen oder Detail“ oben ist die KI im Wesentlichen eine Copy-Paste-Operation auf Steroiden und nicht ein kohärenter Bildgenerator. Mit all‘ den Problemen, die Copy-Paste mit sich bringt.




Solche Anzeichen sind wahrscheinlich schwer (halb-)automatisch zu entfernen und wahrscheinlich ein gutes Indiz, dass etwas mit dem Bild nicht stimmt.
Mangel an Symmetrie
Nur weil etwas in der realen Welt symmetrisch ist, ist das noch lange kein Grund für die KI, Symmetrie zu generieren.



Das kann wohl nur mit händischer Korrektur oder Nachzeichnenlassen durch die KI („inpainting“). Aber auch hier werden die Generatoren mit der Zeit besser werden.
Unmögliches in 3D
Aktuelle KI-Bildgeneratoren haben noch keine echte Kenntnis über den 3D-Raum. Deshalb findet sich in den generierten KI-Bildern „innovative“ Geometrie. Besonders Bänke und Mechanik haben sich bei mir als zu kompliziert für die KI herausgestellt.




Diese Probleme können mit zusätzlichen Versuchen oder Änderung des Prompts wahrscheinlich korrigiert werden. Ganz besonders hier wird sich in den nächsten Monaten noch viel ändern: Bereits jetzt gibt es erste Möglichkeiten, KI-Kunst auf 3D-Modelle zu projizieren oder 3D-Modelle zu generieren.
Licht und Schatten
Fehlerhafte Reflexionen und Schatten sind gute Indikatoren für manipulierte („geshoppte“) Bilder. ein gutesThese are known to help identifying manipulated photos. And remain friends when identifying AI generated art.



Auch dies wird sich wahrscheinlich anlässlich der Einführung von echten 3D-Szenen in die Bildgenerierungspipeline verbessern.
Augen und Haare
Augen, die nicht in die gleiche Richtung blicken, verzerrte Augenformen oder unnatürliches Haar sind gute Indizien für Bilder, die durch eine KI erzeugt wurden. Die Augen von Tieren scheinen besonders empfänglich für Fehler zu sein, wahrscheinlich eine Folge der knapperen Trainingsdaten.



Insbesondere menschliche Augen, Haare und Gesichter werden wohl noch fleissig getunt werden; diese Aspekte werden zukünftig also seltener als Indizien herhalten können.
Gliedmassen und Finger
Von Kinder- und Comic-Zeichnungen kennt man das, dass die Anzahl Arme, Beine oder Finger nicht mit unserer täglichen Erfahrung übereinstimmt. Seitliche Ansichten von Vierbeinern würden häufig Zählfehler aufweisen, was sich aber mit den ausgewählten Bildern nicht verifizieren liess.



Mittels Inpainting kann das wahrscheinlich häufig korrigiert werden; es hilft auch, wenn nichts Ungewöhnliches neben den Gliedmassen gezeichnet werden soll. Auch das wird wohl mit besserem Training weniger auffällig werden.
[Hinzugefügt 2023-02-04:] Das „bessere Training“ dürfte aus drei Dingen bestehen:
- Mehr und grössere Hände in den Bildern
- Hände „alleine“ (also auf ruhigem Hintergrund und ohne dass sie etwas/jemanden umfassen)
- Hände aus verschiedenen Blickwinkeln
Zusammenfassung
Vieles kann bei der KI-Bildgenerierung schief gehen; ein genauer Blick lohnt sich. Natürlich kann es auch falsch positive Beurteilungen geben (ein echter menschlicher Digitalkünstler hat das Bild erstellt, war aber nachlässig oder hat das absichtlich als Stilelement genutzt); genau wie auch falsch negative (die KI-Kunst ist zufällig gut genug oder durch genügend viele Iterationen, Inpainting oder Nachbearbeitung gut genug gemacht worden).
Literatur
- Sarah Shaffi: ‘It’s the opposite of art’: Why illustrators are furious about AI, The Guardian, 2023-01-23.
- Bildmanipulation, umgangssprachlich „photoshopping“, kann teilweise zu ähnlichen Fehlern führen. Eine Internetsuche nach „Bildmanipulation erkennen“, „Foto-Forensik“ oder ähnlichen Ausdrücken liefert eine Unzahl an Empfehlungen und Werkzeugen.
Künstliche Intelligenz
- Lehrerverband, ChatGPT und DatenschutzDer Dachverband der Lehrerinnen und Lehrer (LCH) sei besorgt, dass es in der Schweiz keine einheitliche Regelung gäbe, wie Lehrpersonen mit Daten ihrer Schützlinge umgehen sollen und ob sie dafür KI-Systeme nutzen dürften.
- «Recht auf Vergessenwerden»: Ende durch KI?Das Recht auf Vergessenwerden soll Menschen erlauben, dass Daten über sie nicht unnötig lange digital gespeichert oder verfügbar gemacht werden. Doch KI vergisst nicht gerne. Wie passt das zusammen?
- Webseiten für KI-Crawler sperren?Der grösste Teil der Texte, auf denen moderne KI-Sprachmodelle trainiert wurden, stammen von Webseiten. Wenn Sie eine haben, dann vermutlich auch von Ihrer. Was kann man da tun?
- KI und die Arbeitswelt der ZukunftMichael Seemann hat in rund 100 sehr gut lesbaren Seiten das Wichtigste zusammengefasst, was wir über ChatGPT & Co wissen. Und ein paar Szenarien für die Arbeitswelt analysiert.
- Todesstoss für ChatGPT & Co?Die New York Times verhandelt schon länger mit OpenAI über Urheberrechtsabgaben. Laut Berichten hat OpenAI für das Training von ChatGPT unautorisiert Materialien der New York Times genutzt. Das kann in mehrfacher Sicht teuer werden.
- Sinkt OpenAI?Schlagzeilen machen die Runde, dass OpenAI, die Firma hinter ChatGPT, schon nächstes Jahr Konkurs gehen könnte. Ein Versuch einer Analyse.
- Goethe oder GPThe?In «Wie funktioniert ChatGPT?» habe ich die Experimente von Andrej Karpathy mit Shakespeare-Texten wiedergegeben. Aber funktioniert das auch auf Deutsch? Zum Beispiel mit Goethe? Finden wir es heraus!
- KI: Alles nur Zufall?Wer von einer «Künstlichen Intelligenz» Texte oder Bilder erzeugen lässt, weiss, dass das Resultat stark auf Zufall beruht. Vor Kurzem erschien in der NZZ ein Beitrag, der die Unzuverlässigkeit der KI vor allem dem Zufall in die Schuhe schob. Doch so einfach ist das nicht.
- Hype-TechWieso tauchen gewisse Hype-Themen wie Blockchain oder Maschinelles Lernen/Künstliche Intelligenz regelmässig in IT-Projekten auf, obwohl die Technik nicht wirklich zur gewünschten Lösung passt? Oder es auch einfachere, bessere Ansätze gäbe? Felix von Leitner hielt im Herbst 2021 einen Vortrag zu «Hype-Tech», in dem er einige Gründe dafür aufzeigt (Navigation in den Folien mittels Wischgesten oder … Weiterlesen
- 📹 Die Technik hinter ChatGPTDer Digital Learning Hub organisierte 3 Impuls-Workshops zum Einsatz von ChatGPT in der Sekundarstufe II. Im dritten Teil präsentierte ich die Technik hinter ChatGPT. In der halben Stunde Vortrag werden die Informationen aus meinem Artikel «Wie funktioniert eigentlich ChatGPT?» in dichter, aber illustrativer Weise zusammengefasst. In der anschliessenden Diskussion wird noch auf einige weitere Punkte … Weiterlesen
- «Jaw Dropping» ChatGPT-Vortrag«Jaw Dropping» sei es gewesen, meinte ein Zuhörer am Schluss des Vortrags: Ihm sei der Kiefer heruntergerutscht, als er begriffen habe, wie (vom Prinzip her) einfach ChatGPT die Antworten generiere. Und dass es dies ganz anders tue, als er sich das je vorgestellt hatte. Auch die übrigen Zuhörerinnen und Zuhörer von 12 bis 80 waren … Weiterlesen
- Ist ChatGPT für Ihre Anwendung ungefährlich?Ob man KI-Chatbots sicher einsetzen kann, hängt von der Anwendung ab. Aleksandr Tiulkanov hat deshalb ein Flussdiagramm als Entscheidungshilfe erstellt. Hier eine deutsche Übersetzung und ein paar Anmerkungen zum Korrekturlesen und der Medienkompetenz.
Schreibe einen Kommentar