Newsletter

Das Kreativitätsparadox: Künstliche Intelligenz, Urheberrecht und die Zukunft der Menschheit

"Ich fühle mich nicht geschmeichelt. Ich habe das Gefühl, dass man mir etwas gestohlen hat, das ich jahrelang aufgebaut habe" - Greg Rutkowski, dessen Name in 1,2 Millionen Stable Diffusion-Aufforderungen auftaucht. Der "Ghibli-Stil" offenbart den wahren Unterschied: Van Gogh verstand japanische ästhetische Prinzipien, die KI extrahiert statistische Korrelationen zwischen Pixeln. Stanford zeigt, dass die Modelle in 3 % der Fälle fast identische Bilder erzeugen. Es ist keine Inspiration - es ist Auswendiglernen. Mehr als 250.000 Künstler haben Glaze und Nightshade zu ihrer Verteidigung eingesetzt.

Menschliche vs. künstliche Kreativität: Worin der Unterschied wirklich besteht (und warum uns der Ghibli-Stil etwas lehrt)

Die Debatte über künstliche Intelligenz und Urheberrecht hat sich 2024-2025 dramatisch verschärft. Dies sind keine theoretischen Diskussionen mehr: Die New York Times verklagte OpenAI wegen Urheberrechtsverletzung (Dezember 2023), Getty Images verklagte Stability AI, und Tausende von Künstlern reichten Sammelklagen ein. KI-Unternehmen behaupten, dass ihre Systeme genau wie Menschen "lernen" - aber ist das wirklich der Fall?

Die menschliche Kreativität hat sich immer durch Verbindungen entwickelt: Shakespeare ließ sich von historischen Chroniken und Volksmärchen inspirieren, Van Gogh studierte japanische Drucke, die Beatles begannen mit amerikanischer Rockmusik. Künstler interpretieren frühere Werke immer wieder neu. Künstliche Intelligenz, so sagen Technologieunternehmen, tut dasselbe. Der Fall des "Ghibli-Stils" zeigt jedoch, wie simpel dieses Narrativ ist.

Der Fall Ghibli: Wenn der Stil zur Kontroverse wird

Geben Sie "Ghibli-Stil" in Midjourney oder DALL-E ein und Sie erhalten Bilder, die den Meisterwerken von Hayao Miyazaki verblüffend ähnlich sind: Pastellfarben, flauschige Wolken, traumhafte Landschaften, Figuren mit großen Augen. Das ist technisch beeindruckend. Aber es ist auch zutiefst problematisch.

Studio Ghibli brauchte Jahrzehnte, um diese unverwechselbare Ästhetik zu entwickeln: präzise Farbpaletten, traditionelle Animationstechniken und eine künstlerische Philosophie, die in der japanischen Kultur und Miyazakis persönlicher Vision verwurzelt ist. Wenn ein KI-Modell diesen "Stil" in Sekundenschnelle nachahmt, lernt es dann wirklich so, wie Miyazaki es von Disney-Animationen und japanischen Mangas gelernt hat? Oder kombiniert es einfach nur visuelle Muster, die es unerlaubt aus Tausenden von Ghibli-Filmen extrahiert hat?

Der Unterschied ist kein philosophischer, sondern ein rechtlicher und wirtschaftlicher. Laut einer in arXiv veröffentlichten Stanford-Analyse (Carlini et al., 2023) können Diffusionsmodelle wie Stable Diffusion in etwa 3 % der Fälle fast identische Bilder aus dem Trainingsset generieren, wenn sie mit spezifischen Aufforderungen dazu aufgefordert werden. Es handelt sich nicht um "Inspiration", sondern um Speicherung und Reproduktion.

Der polnische Digitalkünstler Greg Rutkowski entdeckte, dass sein Name in 1,2 Millionen Eingabeaufforderungen auf Stable Diffusion auftauchte - und wurde damit ungewollt zu einem der am häufigsten angefragten "Stile", ohne jemals seine Zustimmung gegeben oder eine Vergütung erhalten zu haben. Gegenüber MIT Technology Review sagte er: "Ich fühle mich nicht geschmeichelt. Ich habe das Gefühl, dass man mir etwas gestohlen hat, das ich jahrelang aufgebaut habe.

Der Bildungsstreit: Die Zahlen für 2024-2025

Das KI-Training hat ein nie dagewesenes Ausmaß erreicht. LAION-5B, einer der am weitesten verbreiteten Datensätze für Bildmodelle, enthält 5,85 Milliarden Bild-Text-Paare aus dem Internet, darunter auch urheberrechtlich geschützte Werke. GPT-4 wurde auf riesigen Teilen des Internets trainiert, darunter bezahlte Artikel, Bücher und geschützter Softwarecode.

Laufende größere Rechtsstreitigkeiten:

  • New York Times gegen OpenAI/Microsoft (Dezember 2023): Schadensersatzforderung in Milliardenhöhe, Vorwurf, GPT auf jahrzehntelang geschützte Artikel zu trainieren
  • Getty Images gegen Stability AI (Februar 2023): Beschuldigt, mehr als 12 Millionen Getty-Bilder ohne Lizenz verwendet zu haben
  • Sammelklage von Künstlern gegen Stability AI/Midjourney/DeviantArt (Januar 2023): Tausende von Künstlern klagen wegen systematischer Urheberrechtsverletzungen
  • Universal Music gegen Suno und Udio (Juni 2024): Plattformen zur Musikerzeugung beschuldigt, sich an geschützten Katalogen zu üben

KI-Unternehmen verteidigen diese Praxis unter Berufung auf die "faire Nutzung" nach US-Recht: Sie argumentieren, dass die Schulung "transformativ" sei und den ursprünglichen Markt nicht ersetze. Mehrere Gerichte stellen diese Auslegung jedoch in Frage.

Richterin Katherine Forrest lehnte im Januar 2024 in der Sache Getty gegen Stability AI den Antrag auf Klageabweisung ab und erlaubte die Fortsetzung des Verfahrens: "Die Frage, ob das Training von KI-Modellen eine faire Nutzung darstellt, ist komplex und erfordert eine gründliche Prüfung der Fakten. Übersetzt heißt das: KI-Unternehmen können sich nicht einfach auf die faire Nutzung berufen und damit fertig sein.

Handelsabkommen: Die Marktlösung zeichnet sich ab

Angesichts des rechtlichen Drucks haben die KI-Unternehmen begonnen, Lizenzen auszuhandeln. OpenAI hat Vereinbarungen geschlossen mit:

  • Associated Press (Juli 2023): Zugang zum Nachrichtenarchiv im Tausch gegen eine Lizenz
  • Axel Springer (Dezember 2023): Vereinbarung zur Nutzung von Inhalten von Politico, Business Insider
  • Financial Times (April 2024): Inhaltslizenz für die Ausbildung
  • News Corp (Mai 2024): 250-Millionen-Dollar-Deal für 5 Jahre, Zugang zu Wall Street Journal, Barron's, New York Post

Google unterzeichnete ähnliche Vereinbarungen mit Reddit, Stack Overflow und verschiedenen Verlagen. Anthropic hat mit Verlegern über die Nutzung von Büchern verhandelt.

Diese Vereinbarungen gelten jedoch nur für große Verlage mit Verhandlungsmacht. Millionen einzelner Urheber - Künstler, Fotografen, freiberufliche Schriftsteller - werden für ihre Werke, die sie in bereits abgeschlossenen Ausbildungsmaßnahmen verwenden, nicht entschädigt.

Menschliches versus maschinelles Lernen: Der wahre Unterschied (Beyond Statistics)

Die Behauptung, KI lerne wie der Mensch, ist technisch gesehen irreführend. Schauen wir uns die grundlegenden Unterschiede an:

Umfang und Geschwindigkeit: Ein menschlicher Künstler studiert im Laufe seines Lebens vielleicht Hunderte oder Tausende von Werken. GPT-4 ist auf Billionen von Wörtern trainiert worden. Stabile Diffusion auf Milliarden von Bildern. Der Umfang ist unvergleichlich und übersteigt jede vernünftige Definition von "Inspiration".

Semantisches Verständnis: Als Van Gogh japanische Drucke studierte, kopierte er nicht mechanisch die visuellen Muster - er verstand die zugrunde liegenden ästhetischen Prinzipien (Verwendung des negativen Raums, asymmetrische Komposition, Betonung der Natur) und interpretierte sie durch seine europäische postimpressionistische Vision neu. Seine Werke sind bewusste kulturelle Synthesen.

KI-Modelle "verstehen" nicht im menschlichen Sinne. Melanie Mitchell, Professorin am Santa Fe Institute, erklärt in ihrem Buch "Artificial Intelligence: A Guide for Thinking Humans" (Künstliche Intelligenz: Ein Leitfaden für denkende Menschen): "Deep-Learning-Systeme zeichnen sich durch Mustererkennung aus, verfügen aber nicht über ein kausales Verständnis, abstrakte Schlussfolgerungen oder mentale Modelle der Welt. Stable Diffusion "versteht" nicht, was Ghibli unverwechselbar macht - es extrahiert statistische Korrelationen zwischen Millionen von Pixeln, die mit "Ghibli-Stil" gekennzeichnet sind.

Kreative Intentionalität: Menschliche Künstler treffen bewusste kreative Entscheidungen auf der Grundlage ihrer persönlichen Vision, der Botschaft, die sie vermitteln wollen, und der Gefühle, die sie hervorrufen wollen. Miyazaki bezieht Umweltthemen, Pazifismus und Feminismus in seine Filme ein - bewusste moralische und künstlerische Entscheidungen.

KI generiert auf der Grundlage statistischer Wahrscheinlichkeiten: "Welche Pixelkonfiguration ist bei Eingabeaufforderung X und Trainingsset Y am wahrscheinlichsten?" Es gibt keine Intentionalität, keine Botschaft, keine Vision. Wie Ted Chiang in The New Yorker schrieb: "ChatGPT ist ein unscharfes Jpeg des Webs" - eine verlustbehaftete Komprimierung, bei der genau die Eigenschaften verloren gehen, die den ursprünglichen Inhalt wertvoll machen.

Transformation vs. Rekombination: Pablo Picasso studierte afrikanische Masken, schuf aber den Kubismus - eine völlig neue künstlerische Bewegung, die die räumliche Darstellung in der Malerei neu erfand. Die Transformation war radikal und originell.

Generative KI-Modelle arbeiten durch Interpolation im latenten Raum: Sie kombinieren Elemente des Trainingssatzes zu neuen Konfigurationen, bleiben aber an die statistische Verteilung der Daten gebunden, mit denen sie trainiert wurden. Sie können keine wirklich neue Ästhetik erfinden, die gegen gelernte statistische Regelmäßigkeiten verstößt. Wie MIT-Forschungsarbeiten zeigen (Shumailov et al., 2023), degenerieren Modelle, die wiederholt auf frühere KI-Ergebnisse trainiert wurden, nach und nach - ein Phänomen, das als "Modellkollaps" bezeichnet wird.

Das Paradox der "Originalität" der KI

Hier liegt das zentrale Paradoxon: KI kann Ergebnisse erzeugen, die originell aussehen (kein Mensch hat dieses spezielle Bild im Ghibli-Stil je zuvor gesehen), aber statistisch gesehen abgeleitet sind (sie sind Interpolationen bestehender Muster). Es handelt sich um eine oberflächliche Form der Originalität ohne grundlegende Innovation.

Dies hat tiefgreifende Auswirkungen. Wie der Philosoph John Searle in seinem berühmten "Chinese-Room-Argument" darlegte, ist die Simulation eines kognitiven Prozesses nicht dasselbe wie dessen Besitz. KI kann Kreativität simulieren, ohne im menschlichen Sinne kreativ zu sein.

Aufkommende technische und regulatorische Lösungen

Angesichts dieser Kontroverse werden derzeit verschiedene Lösungen entwickelt:

Schutzinstrumente für Künstler:

  • Glaze (University of Chicago): Software, die unmerkliche Störungen auf Bilder anwendet und so KI-Modelle "austrickst", die versuchen, den Stil zu lernen
  • Nightshade (dasselbe Team): Offensive Version, die Trainingsdaten "vergiftet" und Modelle, die sie unerlaubt verwenden, beschädigt
  • Mehr als 250.000 Künstler haben diese Werkzeuge im ersten Jahr genutzt

Opt-out-Register:

  • Have I Been Trained (Spawning AI): Datenbank, mit der Künstler überprüfen können, ob ihre Werke in LAION und anderen Datensätzen enthalten sind, mit Opt-out-Mechanismus
  • Einige neuere Modelle respektieren diese Ausnahmeregelungen (Stability AI hat eine teilweise Einhaltung angekündigt)

Vergütungsrahmen:

  • Spawning AI Licence: Mikro-Lizenzsystem zur Entschädigung von Künstlern bei Verwendung von Werken im Training
  • Noch im Versuchsstadium, noch nicht weit verbreitet

Staatliche Vorschriften:

DasEU-KI-Gesetz (in Kraft getreten im August 2024) verpflichtet die Anbieter generativer KI-Modelle, detaillierte Zusammenfassungen der verwendeten urheberrechtlich geschützten Trainingsdaten zu veröffentlichen. Es ist der erste regulatorische Versuch, Transparenz zu erzwingen.

Das ELVIS-Gesetz des US-Bundesstaates Tennessee (März 2024) schützt die Stimme und das Bild von Künstlern in den ersten US-Bundesstaaten, die KI einsetzen, mit speziellen Rechtsvorschriften für Fälschungen von Stimmen und Bildern.

Zu den Vorschlägen an den US-Kongress gehören die Forderung nach einem ausdrücklichen Opt-in für urheberrechtlich geschützte Werke (anstelle eines Opt-out) und die Einrichtung öffentlicher Verzeichnisse von Ausbildungsdatensätzen.

Die Zukunft der Kreativität: Hybridität oder Substitution?

Zwei Visionen von der Zukunft stehen einander gegenüber:

Optimistische Sichtweise (KI-Unternehmen): KI ist ein Werkzeug, das die menschliche Kreativität verstärkt, wie Photoshop oder Musiksynthesizer. Künstler werden KI nutzen, um Arbeitsabläufe zu beschleunigen, Variationen zu erforschen und kreative Blockaden zu überwinden. Es werden hybride Kunstformen entstehen, bei denen der Mensch die Vision steuert und die KI die technischen Teile übernimmt.

Konkrete Beispiele gibt es bereits: Der Film "The Frost" (2023) verwendet KI zur Generierung von Hintergründen und Texturen, wobei menschliche Künstler die künstlerische Leitung übernehmen. Musiker nutzen Suno und Udio, um Backing Tracks zu erzeugen, auf denen sie improvisieren können. Schriftsteller nutzen GPT als "Gummi-Ente", um erzählerische Ideen zu diskutieren.

Pessimistische Sicht (viele Kreative): KI wird Kreativität zur Ware machen und den wirtschaftlichen Wert kreativer Arbeit untergraben, bis nur noch Eliten mit außergewöhnlichen Fähigkeiten überleben. Die "durchschnittliche Kreativität" wird durch billige Generatoren ersetzt und damit die kreative Mittelschicht vernichtet - so wie die industrielle Automatisierung die Handwerker im 19.

Vorläufige Belege bestätigen diese Befürchtung: Auf Freiberuflerplattformen wie Fiverr gingen die Anfragen für Illustratoren und Texter im Jahr 2023 um 21 % zurück (Fiverr-Daten für Q4 2023), während die Angebote für die "KI-Kunstgenerierung" explodierten. Greg Rutkowski verzeichnete einen Rückgang der direkten Aufträge um 40 %, seit sein Stil auf Stable Diffusion populär wurde.

Die Wahrheit liegt wahrscheinlich irgendwo dazwischen: Einige Formen der kreativen Arbeit werden automatisiert werden (allgemeine Stock-Illustrationen, einfache Werbetexte), während höchst originelle, konzeptionelle, kulturell verwurzelte Kreativität eine menschliche Domäne bleiben wird.

Schlussbetrachtungen: Authentizität im Zeitalter der perfekten Imitation

Die Unterscheidung zwischen menschlichen und KI-Inhalten wird immer schwieriger werden. Schon heute ist es ohne Wasserzeichen oder Offenlegung oft unmöglich, GPT-4-Text von menschlichem Text oder Midjourney-Bilder von Fotos zu unterscheiden. Wenn Sora (OpenAI Video Generator) öffentlich wird, wird sich die Unterscheidung auch auf Videos ausweiten.

Dies wirft tiefgreifende Fragen zur Authentizität auf. Wenn ein KI-generiertes Bild im Ghibli-Stil die gleichen Emotionen hervorruft wie das Original, hat es dann den gleichen Wert? Der Philosoph Walter Benjamin vertrat in seinem Buch "Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit" (1935) die Ansicht, dass die mechanische Reproduzierbarkeit die "Aura" des Originalwerks - seine räumliche und zeitliche Einzigartigkeit und Authentizität - untergräbt.

Die generative KI treibt dieses Argument auf die Spitze: Sie reproduziert keine bestehenden Werke, sondern erzeugt unendliche Variationen, die das Original simulieren, ohne es zu sein. Sie ist das Baudrillard'sche Simulakrum - die Kopie ohne das Original.

Dennoch liegt im bewussten kreativen Akt etwas untrennbar Menschliches: der Künstler, der jeden Pinselstrich wählt, weil er weiß, was er vermitteln will, der Schriftsteller, der jeden Satz so gestaltet, dass er bestimmte Gefühle hervorruft, der Komponist, der Spannung und Auflösung mit Absicht aufbaut. Künstliche Intelligenz kann das Ergebnis simulieren, aber nicht den Prozess - und vielleicht liegt gerade im Prozess der wahre Wert der Kreativität.

Wie Studio Ghibli in einer Erklärung (November 2023) schrieb: "Die Seele unserer Filme liegt nicht in dem visuellen Stil, der kopiert werden kann, sondern in den kreativen Entscheidungen, die wir Bild für Bild treffen, um die Geschichte zu erzählen, die wir erzählen wollen. Das kann nicht automatisiert werden".

Der Wert der Kunst ergibt sich letztlich aus ihrer Fähigkeit, eine tiefe Verbindung zur menschlichen Erfahrung herzustellen - uns das Gefühl zu geben, verstanden zu werden, uns herauszufordern und zu verändern. Ob dies durch KI erreicht werden kann, bleibt eine offene Frage. Aber solange Kunst von Menschen für Menschen gemacht wird und von der menschlichen Situation spricht, wird sie etwas bewahren, was kein Algorithmus nachbilden kann: die Authentizität gelebter Erfahrung, die in ästhetische Form übersetzt wird.

Quellen:

  • Carlini, Nicholas et al. - 'Extracting Training Data from Diffusion Models', arXiv:2301.13188 (2023)
  • Mitchell, Melanie - 'Künstliche Intelligenz: Ein Leitfaden für denkende Menschen' (2019)
  • Chiang, Ted - "ChatGPT ist ein unscharfes JPEG des Webs", The New Yorker (Februar 2023)
  • Shumailov, Ilia et al. - 'Der Fluch der Rekursion: Training auf generierten Daten lässt Modelle vergessen', arXiv:2305.17493 (2023)
  • MIT Technology Review - "Dieser Künstler dominiert die KI-generierte Kunst - und ist nicht glücklich darüber" (September 2022)
  • EU AI-Gesetz - Verordnung (EU) 2024/1689
  • Benjamin, Walter - "Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit" (1935)
  • Rechtsstreitigkeiten über öffentliche Aufzeichnungen: NYT gegen OpenAI, Getty gegen Stability AI
  • Fiverr Q4 2023 Ergebnisbericht

Ressourcen für Unternehmenswachstum