i
Illustration: Christian Effenberger
i
Illustration: Christian Effenberger

Generative künstliche Intelligenz

Seit knapp zwei Jahren steht das Thema generative künstliche Intelligenz ganz oben auf der Agenda der IO. Unsere KI-Taskforce wirkt intensiv auf verschiedenen Plattformen und Bühnen mit, um die Interessen von Illustrator:innen und Urheber:innen zu vertreten. Ziel ist eine entsprechende Regulierung des Einsatzes von generativer KI. Auf dieser Seite fassen wir alle wesentlichen Informationen zusammen.

Die Werke von Kreativschaffenden zeichnen sich aus durch Originalität, Authentizität, Intention ihrer Urheber:innen und durch deren persönliche Haltungen. Kreatives Schaffen ist ein Prozess des aktiven Reflektierens auf Grundlage des Verstehens.

Dieser kreativ-kulturelle Mehrwert muss für die Gesellschaft umfassend geschützt werden. Technologischer Fortschritt ist grundsätzlich gut und bietet neue Möglichkeiten als Bereicherung kreativer Ausdrucksformen. Gleichzeitig stellt generative künstliche Intelligenz eine nicht zu unterschätzende Gefahr für Kreativschaffende dar. Im Positionspapier KI aber fair hat die IO zusammen mit anderen Kreativverbänden ihre Forderungen zum Ausdruck gebracht.

Wir wissen, die professionelle Bildkompetenz von Illustrator:innen kann von KI-generiertem Output nicht erreicht werden. Maßgeschneiderte Problemlösungen für konkrete Aufgabenstellungen, innovative Ansätze, überraschende Perspektivenwechsel – dafür braucht es kreatives Denken und Fertigkeiten. KI kann hierbei nur Werkzeug sein, keine Quelle neuer Schöpfungskraft.

Dennoch, der Versuch im Markt, mit KI-generierten Bildern visuelle Lösungen zu finden, führt zu großer Verunsicherung bei Illustrator:innen. Vor allem bezüglich Auftragslage, Rechtssituation und technischer Entwicklung. Wir geben einen kurzen Überblick zum aktuellen Stand:

Titelillustration: Christian Effenberger

FAQ

2023 haben wir unter unseren Mitgliedern eine Online-Befragung zur aktuellen Berufssituation durchgeführt. Darin geben 23 Prozent der Befragten an, dass die Einführung von KI-Bildgeneratoren bereits jetzt schon direkte Auswirkungen auf ihre illustrative Arbeit hat. Bei der Frage nach der größten Herausforderung der Zukunft lag die Antwort „Künstliche Intelligenz“ mit großem Abstand auf Platz 1.

Darüber hinaus häufen sich Berichte über ausbleibende Aufträge, veränderte
Anfragen und Preiseinbrüche. Viele Verlage und Agenturen setzen offenbar vermehrt auf KI-Bebilderung, was sich auch an entsprechenden Buchcovern, Magazinen und anderen Produkten zeigt. Teils fragen Kund:innen lediglich Bildskizzen für geringes Honorar an, die sie dann selbst mithilfe von KI fertigstellen oder liefern bereits fertige KI-generierte Abbildungen, die dann nur noch überarbeitet werden sollen.

Insgesamt stellen wir eine große Verunsicherung fest. Illustrator:innen aus alles Einsatzgebieten machen sich Sorgen über ihr finanzielles Auskommen, haben Zukunftsängste und denken über Jobalternativen nach.

Unter großem Druck stehen schon jetzt die Bereiche Concept-Art und Gaming. So berichten Mitarbeitende von Games-Studios von großen Kündigungswellen, bei denen Jobs gestrichen und auf KI verlegt werden. Hintergrund könnte dabei sein, dass KI-Systeme wie Midjourney einen starken Fokus auf Plattformen wie ArtStation (Showcase für Games, Filme, etc.) hatten und haben. Entsprechend gut ist in diesem Bereich die Trainingsdatenlage – und somit auch der Output der KI-Systeme.

Ähnliches gilt für die Visualisierung von Storyboards in der Werbung. Hier gibt es bei den Abbildungen trotz unterschiedlicher Produkte oft größere Ähnlichkeiten und Überschneidungen. KI-generierte Storyboards erfüllen daher offenbar schon jetzt deutlich häufiger die Kundenerwartungen als in anderen Bereichen.

Aktuell vergleichsweise wenig betroffen sind Bereiche wie Graphic Recording und Wissenschaftsillustration. Daran zeigt sich auch deutlich eine große Schwäche der aktuellen KI-Generation: Sie ist stark, wenn Bekanntes nur leicht modifiziert werden muss, versagt aber häufig noch bei der Umsetzung neuer Ideen – also etwa der Bebilderung neuer wissenschaftlicher Erkenntnisse.

Die gängigsten Generatoren sind DALL-E, Stable Diffusion und Midjourney.

DALL-E und seine Nachfolger DALL-E 2 und DALL-E 3 sind Entwicklungen des US-Softwareunternehmens OpenAI aus San Francisco. DALL-E ist dabei ein kommerzielles Produkt – OpenAI verdient damit also Geld und nutzt dazu ein Creditsystem (einige Bilder sind frei, mehr Bilder sind kostenpflichtig).

Stable Diffusion ist eine gemeinsame Entwicklung von Forschern der Ludwig-Maximilians-Universität München und verschiedenen Playern aus der freien Wirtschaft. Stable Diffusion ist eine Open-Source-Software und lässt sich kostenlos nutzen.

Midjourney wurde von Midjourney, Inc. aus San Francisco entwickelt, das sich selbst als unabhängiges Forschungsinstitut bezeichnet, aber unternehmerisch agiert. Nutzer:innen müssen ein kostenpflichtiges Abo abschließen, das zwischen 10 und 120 US-Dollar im Monat kostet.

Grundbasis sind die Trainingsdaten, mit denen das KI-System „lernt“. So sammeln meist Bots („Webcrawler“) automatisiert Unmengen von Bildern im Internet und verschlagworten diese – entweder maschinell automatisiert oder bei komplexeren Bildern und Themen auch durch billige Arbeitskräfte in der dritten Welt.

Mit diesen Daten wird die KI dann „trainiert“. Stable Diffusion etwa nutzt dafür den öffentlich zugänglichen Datensatz LAION-5B. Erstellt wurde dieser Datensatz von der gemeinnützigen deutschen Organisation LAION mit Unterstützung des Unternehmens Stability AI. Stability AI hat dabei die Rechenpower zur Verfügung gestellt und den Datensatz so erst möglich gemacht.

In der Regel enthält der Trainingsdatensatz nicht die Bilder selbst, sondern ist lediglich ein Referenzverzeichnis, liefert also „nur“ eine Bildbeschreibung als Text und den Link zum Bild. Erst beim eigentlichen KI-Training wird dann tatsächlich auf das Bild zugegriffen, was für die urheberrechtliche Debatte von Bedeutung ist.

Nutzer:innen eines Bildgenerators geben dann über ein Textfeld ihren Bildwunsch ein („Tanzender Bär mit blauem Ball“). Durch das vorangegangene Training hat die KI gelernt, Text mit Bild in Zusammenhang zu bringen. Sie erzeugt dann eine visuelle Entsprechung des eingegebenen Textes – malt also eines oder mehrere Bilder, welche die Nutzer:innen dann mit weiteren Textbefehlen bearbeiten und verfeinern können. Auch können sie bestimmte Stilrichtungen und Referenzen vorgeben („in the style of Picasso“ oder „trending on ArtStation“).

Die Qualität ist in jüngster Zeit rasant gestiegen, hat aber Schwächen. Oft braucht es ein geübtes Auge – beispielsweise von uns Fachleuten – um die aktuell noch vorhandenen Schwachpunkte zu entdecken: Fehler in der menschlichen Anatomie, fraktale Elemente (etwa das Muster einer Hauswand, das sich in der Straße vor dem Haus fortsetzt) und andere mehr.

Weitere Infos zur Identifizierung von KI-generierten Bildern findet Ihr in dieser wissenschaftlichen Arbeit

Auch neigen KI-Systeme jüngsten Studien zufolge (Marcus/Southen) zunehmend zum Kopieren und Plagiieren. Popkulturelle Phänomene wie etwa die Bildwelten aus dem Marvel-Universum oder die Simpsons werden auch ohne gezieltes Prompting öfter reproduziert, weil diese überproportional stark in den Trainingsdaten enthalten sind.

Unter dem Strich ist anzunehmen, dass Schwächen wie die Darstellung der Anatomie in den kommenden Jahren verschwinden werden. Gleichzeitig wird sich aber die Plagiatsdebatte verschärfen, weil die KI-generierten Bilder die ursprünglichen Trainingsdaten immer genauer wiedergeben können.

Nein. Zumindest nicht in naher Zukunft. Denn die KI verfügt nicht über unsere meist durch jahrelanges Studium und viel Arbeit erlangte Bildkompetenz. Illustration erfüllt kommunikative Zwecke – sie erzählt, erklärt, veranschaulicht. Das lässt sich mit willkürlichen Bildern per Knopfdruck nicht erfüllen. Dazu braucht man das Wissen, wie Bilder gestaltet sind, wie sie kommunizieren und zu uns sprechen. Eine KI kann aktuell nicht verstehen, warum die Bastelanleitung für Kinder anders aussehen muss, als eine Bauanleitung für Erwachsene. Diese Kompetenz liegt noch bei uns und kann in den kommenden Jahren höchstwahrscheinlich nicht durch KI ersetzt werden. Dennoch ist es in unser aller Interesse, diese Expertise zu pflegen, sie auszubauen und ihren Wert gegenüber unseren Auftraggeber:innen zu kommunizieren.

Da sich das Thema KI so rasant entwickelt, sind viele rechtliche Fragen noch völlig offen. Einig sind sich die meisten Jurist:innen jedoch, dass ein KI-generiertes Werk keinen Urheber im rechtlichen Sinne hat und deshalb auch frei verwendet werden kann.

Problematisch wird es jedoch bei den Trainingsdaten. Diese werden häufig einfach aus dem Internet gefischt – auch von den Internetseiten unserer Mitglieder. Überprüfen lässt sich das zum Beispiel über die Website https://haveibeentrained.com.

Im Rahmen einer Befragung gaben 82 Prozent unserer Mitglieder an, hier mindestens ein eigenes Bild gefunden zu haben, das für KI-Training genutzt wurde. Dies erfolgte ohne Einverständnis, Vergütung oder irgendeine Möglichkeit, die Nutzung rückgängig zu machen. Aus unserer Sicht liegt hier eindeutig ein massenhafter Urheberrechtsbruch vor. Und die Dunkelziffer ist sicher deutlich höher, da viele Anbieter:innen ihre Trainingsdatenquellen nicht transparent machen.

Seit der Novellierung des deutschen Urheberrechtsgesetzes 2021 ist das Data-Mining jedoch legal – auch für kommerzielle Zwecke. Immerhin wurde den Rechteinhaber:innen dabei ein sogenanntes „Opt-Out“ eingeräumt – sie können also der Nutzung widersprechen, müssen dies jedoch in „maschinenlesbarer Form“ tun, etwa im Impressum der eigenen Website.

Hier der Wortlaut des entsprechenden Paragraphen 44b UrhG:

(1) Text und Data Mining ist die automatisierte Analyse von einzelnen oder mehreren
digitalen oder digitalisierten Werken, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen.
(2) Zulässig sind Vervielfältigungen von rechtmäßig zugänglichen Werken für das Text und Data Mining. Die Vervielfältigungen sind zu löschen, wenn sie für das Text und Data Mining nicht mehr erforderlich sind.
(3) Nutzungen nach Absatz 2 Satz 1 sind nur zulässig, wenn der Rechtsinhaber sich diese nicht vorbehalten hat. Ein Nutzungsvorbehalt bei online zugänglichen Werken ist nur dann wirksam, wenn er in maschinenlesbarer Form erfolgt.

Aus unserer Sicht ist diese Regelung hochproblematisch. Zum einen müssen im Urheberrecht gewöhnlich Kunden bei Urheber:innen aktiv eine Erlaubnis einholen („Opt-In“), was hier zugunsten des Data-Minings mit einer für die KI-Industrie viel günstigeren Widerspruchslösung außer Kraft gesetzt wurde. Zum anderen gibt es derzeit für ein „maschinenlesbares“ Opt-Out keinen Standard. Und schließlich ist auch die Einhaltung des Opt-Outs kaum zu überprüfen, da Trainingsdatensätze nicht transparent offengelegt werden müssen.

Die kommenden Monate und Jahre werden entscheidend für die noch zu klärenden rechtlichen Rahmenbedingungen der Nutzung sein. So hat etwa ein Fotograf den Trainingsdatensatzersteller LAION wegen der Nutzung seiner Bilder verklagt. Die Klage wird im April 2024 vor dem Amtsgericht Hamburg verhandelt.

Wir empfehlen allen Mitgliedern, auf ihren Websites einen Widerspruch zu platzieren, auch wenn dieser wegen offener rechtlicher Fragen noch keinen garantierten Schutz vor unerlaubter Nutzung darstellt. Dieser Text im Impressum könnte wie folgt aussehen:

„Gemäß §44b Absatz 3 UrhG widerspreche ich ausdrücklich jeglicher Verwendung der auf dieser Webseite eingestellten Inhalte zu Zwecken des Text- und Data-Minings, insbesondere zur Ermöglichung eines Einsatzes im Rahmen von Werken, die durch Künstliche Intelligenz (KI) geschaffen werden.“

Darüber hinaus raten wir allen Mitgliedern, sich regelmäßig über aktuelle Entwicklungen im KI-Bereich zu informieren und sich mit Kolleg:innen auszutauschen. Denn die Kreativbranche ist hier keineswegs wehrlos. So tauchen immer wieder Ideen und konkrete Lösungen auf, mit denen das uneingeschränkte Data-Mining der KI-Industrie gebremst oder gestört werden kann.

Ein Beispiel sind die Tools „Glaze“ und „Nightshade“, die von einem Team um Ben Zhao, Professor an der University of Chicago, entwickelt wurden. Bilder können mit der Software so bearbeitet werden, dass sie für die KI nicht mehr lesbar sind oder die KI regelrecht vergiften. Derartige Tools könnten künftig nicht nur eigene Werke schützen, sondern sind auch ein demonstrativer Akt des Widerstands, der die Industrie vielleicht zum Umdenken bewegt.

Unsere KI-Taskforce hat zusammen mit einer Reihe anderer Verbände aus der Kreativwirtschaft das Positionspapier „KI aber fair“ verfasst. Auf diese Weise bündeln wir die Kräfte der kreativen Bereiche Bild, Text und Musik. Darin fordern wir einen Dreiklang, den man unter den Schlagworten „Erlaubnis, Transparenz & Vergütung“ zusammenfassen kann.

1. Unsere Werke dürfen grundsätzlich nicht für das KI-Training verwendet werden, es sei denn, der Anbieter holt dafür aktiv eine Erlaubnis ein.
2. KI-Anbieter sind dazu verpflichtet, ihre Trainingsdatenquellen offenzulegen. Es muss nachvollziehbar sein, ob urheberrechtlich geschütztes Material verwendet wird und ob dafür eine Erlaubnis vorliegt. Zudem müssen KI-generierte Werke eindeutig als solche gekennzeichnet und leicht erkennbar sein. Ohne eine solche umfassende Transparenz dürfen Anbieter keine Marktzulassung erhalten.
3. Findet eine erlaubte Nutzung zu kommerziellen Zwecken statt, müssen die Urheber:innen an den Gewinnen beteiligt werden und eine angemessene Vergütung erhalten. Möglich ist hier etwa ein pauschale Lizensierung wie bei den gängigen Verwertungsgesellschaften.

Darüber hinaus engagiert sich die KI-Taskforce der IO auch in anderen Interessenverbänden wie der Initiative Urheberrecht (IU), der European Guild for AI Regulation (EGAIR) und dem Deutschen Designtag. Wir informieren unsere Mitglieder regelmäßig über aktuelle Entwicklungen und vertreten auch nach außen aktiv unsere Meinung – etwa auf den Podien der Leipziger und Frankfurter Buchmesse oder in Interviews mit dem ZDF und der Welt am Sonntag.

Ein erster Erfolg: Am 14. März 2024 hat das Europäische Parlament den Kompromiss zum weltweit ersten KI-Gesetz (AI Act) mit breiter Mehrheit angenommen. Der angenommene Verordnungstext zielt darauf ab, die Grundrechte, die Demokratie, die Rechtsstaatlichkeit und die ökologische Nachhaltigkeit vor risikoreicher KI zu schützen und gleichzeitig die Innovation zu fördern.

Ein Schritt in die richtige Richtung, dem weitere folgen müssen! Grundsätzlich positiv sehen wir die Aspekte zur Transparenzpflicht bei Trainingsdaten. Eine Forderung, welche die IO und weitere Verbände bereits im April 2023 im Positionspapier „KI aber Fair“ formuliert hatten. Negativ sehen wir, dass die Wahrung von Urheberrechten auch im AI Act einer Opt-Out Logik folgt – Urheber:innen stehen weiterhin vor der Aufgabe, der Nutzung ihrer Werke aktiv widersprechen zu müssen.

Kritisch beobachten werden wir die Umsetzung in nationales Recht sowie zukünftige Rechtsprechung zu Ausnahmeregelungen für kommerzielle und Open Source KI-Modelle. Hierzu empfehlen wir den Artikel der Kolleg:innen von EGAIR, die den Gesetzestext aus der Perspektive von Urheber:innen einordnen: https://www.egair.eu/the-ai-act-has-been-approved-by-the-coreper

  • »Gerade in Zeiten der entfesselten KI ist Sicherheit ein unerlässliches Gut. Die neue Technologie bedient sich ohne nennenswerte Reglementierungen an unseren Werken, weshalb wir mehr denn je klare Spielregeln brauchen, um auch in Zukunft weiterhin von unserer Arbeit leben zu können.«

    Bernd Kissel

    Illustrator und Comiczeichner

Handlungsempfehlung für Illustrator:innen

Nach aktueller Urheberrechtslage ist das „Digitale Text und Datamining“ weitreichend erlaubt (§44b UrhG). Urheber:innen haben jedoch die Möglichkeit, einen „Maschinenlesbaren Widerspruch“ auf Ihrer Webseite zu formulieren. Auch wenn es derzeit keinen definierten Standard gibt, wo und in welcher Form dieser Widerspruch platziert sein soll, scheint derzeit ein Textbaustein auf der Webseite, z.B. im Disclaimer und/oder Impressum als Maßnahme sinnvoll, beispielsweise wie folgt:

„Gemäß §44b Absatz 3 UrhG widerspreche ich ausdrücklich jeglicher Verwendung der auf dieser Webseite eingestellten Inhalte zu Zwecken des Text- und Data-Minings, insbesondere zur Ermöglichung eines Einsatzes im Rahmen von Werken, die durch Künstliche Intelligenz (KI) geschaffen werden.“

Mit den Tools „Glaze“ und „Nightshade“ ist es möglich die Pixelstruktur von Bildern so zu manipulieren, dass sie für KI-Trainingszwecke nicht mehr verwendbar oder gar schädlich sind. Die Darstellung oder Bildqualität wird davon nur marginal beeinflusst.

Wer nicht möchte, dass die eigenen Werke von Auftraggeber:innen für das Training generativer KI genutzt werden, kann das in Verträgen über die Rechteeinräumung ausschliessen. Eine entsprechende Klausel könnte lauten:

„Gemäß §44b Absatz 3 UrhG widerspreche ich ausdrücklich jeglicher Verwendung meiner Werke zu Zwecken des Text- und Data-Minings, insbesondere zur Ermöglichung eines Einsatzes im Rahmen von Werken, die durch Künstliche Intelligenz (KI) geschaffen werden.“

Voraussetzung für die Verwendung von Illustrationen zu KI-Trainingszwecken ist die Einräumung umfangreicher Nutzungsrechte: exklusives Total Buyout (bis Faktor 5) und Bearbeitungsrecht (bis Faktor 10). Da die Einspeisung von Motiven in KI-Modelle mittelfristig zu einem Projektrückgang führen kann, sollte das Preisniveau konsequent hoch gehalten werden.

Werden für die Erstellung des eigenen Kreativwerks KI-basierte Generatoren verwendet, sollte der/die Auftraggeber:in im Vorfeld schriftlich darüber informiert werden.

Wer ausschließen möchte, dass die eigenen Illustrationen in Projekten eingesetzt werden, in denen außerdem KI-generierte Bildinhalte zum Tragen kommen, kann dies im Werkvertrag entsprechend festlegen.

Eine mögliche Formulierung lautet wie folgt:

“Die gelieferten Illustrationen dürfen nicht in Produkten verwendet werden, die auf dem Cover oder an anderer Stelle Illustrationen zeigen, die durch Künstliche Intelligenz erzeugt worden sind.”

Die KI-Taskforce der IO in Aktion

Zusammen mit drei Partnerverbänden waren wir einer der ersten Verbände, der zu einer verbindlichen Regulierung von KI in unserem Positionspapier “KI aber fair” geraten hat. Im Schulterschluss mit unserem Dachverband der Initiative Urheberrecht und der European Guild for AI Regulation (EGAIR) wirken wir auf nationaler und europäischer Ebene auf eine Regulierung hin.

Unsere Haltung tragen wir auf verschiedenen Podien nach außen. Bisher waren wir unter anderem bei Diskussionen auf der Leipziger Buchmesse, dem Festival of Animation, sowie der Frankfurter Buchmesse als auch beim deutschen Werbefilmpreis, dem Kurzfilmfestival Hamburg und dem Carlsen Creative Campus vertreten.

Beiträge aus Gesprächen mit unserer KI Taskforce finden sich bei ZDF Wiso und Welt am Sonntag. Ein Gespräch mit Jürgen Gawron, Vorsitzendem der IO, zum Thema “Wie Illustrator:innen um ihre Rechte kämpfen” gab es außerdem auf RBB Kultur zu hören.

KI Taskforce

Gerne können Fragen, Input usw. per E-Mail an die KI Taskforce gestellt werden:

Dahinter verbergen sich zur Zeit Anna Karina Birkenstock, Norbert Egdorf, Jürgen Gawron, Jens R. Nielsen, Matthias Ries, Christian Schlierkamp, Stefanie Weiffenbach und Tobias Wüstefeld.

Medien & ausgesuchte Links

2024

  • Stellungnahmen und News des European Writers Council zum Thema KI und AI Act
  • Reaktion von EGAIR (European Guild for Artificial Intelligence Regulation) auf die Verabschiedung des AI Act

2023

KI News