Menschliche vs. künstliche Kreativität: Worin der Unterschied wirklich besteht (und warum uns der Ghibli-Stil etwas lehrt)
Die Debatte über künstliche Intelligenz und Urheberrecht hat sich 2024-2025 dramatisch verschärft. Dies sind keine theoretischen Diskussionen mehr: Die New York Times verklagte OpenAI wegen Urheberrechtsverletzung (Dezember 2023), Getty Images verklagte Stability AI, und Tausende von Künstlern reichten Sammelklagen ein. KI-Unternehmen behaupten, dass ihre Systeme genau wie Menschen "lernen" - aber ist das wirklich der Fall?
Die menschliche Kreativität hat sich immer durch Verbindungen entwickelt: Shakespeare ließ sich von historischen Chroniken und Volksmärchen inspirieren, Van Gogh studierte japanische Drucke, die Beatles begannen mit amerikanischer Rockmusik. Künstler interpretieren frühere Werke immer wieder neu. Künstliche Intelligenz, so sagen Technologieunternehmen, tut dasselbe. Der Fall des "Ghibli-Stils" zeigt jedoch, wie simpel dieses Narrativ ist.
Geben Sie "Ghibli-Stil" in Midjourney oder DALL-E ein und Sie erhalten Bilder, die den Meisterwerken von Hayao Miyazaki verblüffend ähnlich sind: Pastellfarben, flauschige Wolken, traumhafte Landschaften, Figuren mit großen Augen. Das ist technisch beeindruckend. Aber es ist auch zutiefst problematisch.
Studio Ghibli brauchte Jahrzehnte, um diese unverwechselbare Ästhetik zu entwickeln: präzise Farbpaletten, traditionelle Animationstechniken und eine künstlerische Philosophie, die in der japanischen Kultur und Miyazakis persönlicher Vision verwurzelt ist. Wenn ein KI-Modell diesen "Stil" in Sekundenschnelle nachahmt, lernt es dann wirklich so, wie Miyazaki es von Disney-Animationen und japanischen Mangas gelernt hat? Oder kombiniert es einfach nur visuelle Muster, die es unerlaubt aus Tausenden von Ghibli-Filmen extrahiert hat?
Der Unterschied ist kein philosophischer, sondern ein rechtlicher und wirtschaftlicher. Laut einer in arXiv veröffentlichten Stanford-Analyse (Carlini et al., 2023) können Diffusionsmodelle wie Stable Diffusion in etwa 3 % der Fälle fast identische Bilder aus dem Trainingsset generieren, wenn sie mit spezifischen Aufforderungen dazu aufgefordert werden. Es handelt sich nicht um "Inspiration", sondern um Speicherung und Reproduktion.
Der polnische Digitalkünstler Greg Rutkowski entdeckte, dass sein Name in 1,2 Millionen Eingabeaufforderungen auf Stable Diffusion auftauchte - und wurde damit ungewollt zu einem der am häufigsten angefragten "Stile", ohne jemals seine Zustimmung gegeben oder eine Vergütung erhalten zu haben. Gegenüber MIT Technology Review sagte er: "Ich fühle mich nicht geschmeichelt. Ich habe das Gefühl, dass man mir etwas gestohlen hat, das ich jahrelang aufgebaut habe.
Das KI-Training hat ein nie dagewesenes Ausmaß erreicht. LAION-5B, einer der am weitesten verbreiteten Datensätze für Bildmodelle, enthält 5,85 Milliarden Bild-Text-Paare aus dem Internet, darunter auch urheberrechtlich geschützte Werke. GPT-4 wurde auf riesigen Teilen des Internets trainiert, darunter bezahlte Artikel, Bücher und geschützter Softwarecode.
Laufende größere Rechtsstreitigkeiten:
KI-Unternehmen verteidigen diese Praxis unter Berufung auf die "faire Nutzung" nach US-Recht: Sie argumentieren, dass die Schulung "transformativ" sei und den ursprünglichen Markt nicht ersetze. Mehrere Gerichte stellen diese Auslegung jedoch in Frage.
Richterin Katherine Forrest lehnte im Januar 2024 in der Sache Getty gegen Stability AI den Antrag auf Klageabweisung ab und erlaubte die Fortsetzung des Verfahrens: "Die Frage, ob das Training von KI-Modellen eine faire Nutzung darstellt, ist komplex und erfordert eine gründliche Prüfung der Fakten. Übersetzt heißt das: KI-Unternehmen können sich nicht einfach auf die faire Nutzung berufen und damit fertig sein.
Angesichts des rechtlichen Drucks haben die KI-Unternehmen begonnen, Lizenzen auszuhandeln. OpenAI hat Vereinbarungen geschlossen mit:
Google unterzeichnete ähnliche Vereinbarungen mit Reddit, Stack Overflow und verschiedenen Verlagen. Anthropic hat mit Verlegern über die Nutzung von Büchern verhandelt.
Diese Vereinbarungen gelten jedoch nur für große Verlage mit Verhandlungsmacht. Millionen einzelner Urheber - Künstler, Fotografen, freiberufliche Schriftsteller - werden für ihre Werke, die sie in bereits abgeschlossenen Ausbildungsmaßnahmen verwenden, nicht entschädigt.
Die Behauptung, KI lerne wie der Mensch, ist technisch gesehen irreführend. Schauen wir uns die grundlegenden Unterschiede an:
Umfang und Geschwindigkeit: Ein menschlicher Künstler studiert im Laufe seines Lebens vielleicht Hunderte oder Tausende von Werken. GPT-4 ist auf Billionen von Wörtern trainiert worden. Stabile Diffusion auf Milliarden von Bildern. Der Umfang ist unvergleichlich und übersteigt jede vernünftige Definition von "Inspiration".
Semantisches Verständnis: Als Van Gogh japanische Drucke studierte, kopierte er nicht mechanisch die visuellen Muster - er verstand die zugrunde liegenden ästhetischen Prinzipien (Verwendung des negativen Raums, asymmetrische Komposition, Betonung der Natur) und interpretierte sie durch seine europäische postimpressionistische Vision neu. Seine Werke sind bewusste kulturelle Synthesen.
KI-Modelle "verstehen" nicht im menschlichen Sinne. Melanie Mitchell, Professorin am Santa Fe Institute, erklärt in ihrem Buch "Artificial Intelligence: A Guide for Thinking Humans" (Künstliche Intelligenz: Ein Leitfaden für denkende Menschen): "Deep-Learning-Systeme zeichnen sich durch Mustererkennung aus, verfügen aber nicht über ein kausales Verständnis, abstrakte Schlussfolgerungen oder mentale Modelle der Welt. Stable Diffusion "versteht" nicht, was Ghibli unverwechselbar macht - es extrahiert statistische Korrelationen zwischen Millionen von Pixeln, die mit "Ghibli-Stil" gekennzeichnet sind.
Kreative Intentionalität: Menschliche Künstler treffen bewusste kreative Entscheidungen auf der Grundlage ihrer persönlichen Vision, der Botschaft, die sie vermitteln wollen, und der Gefühle, die sie hervorrufen wollen. Miyazaki bezieht Umweltthemen, Pazifismus und Feminismus in seine Filme ein - bewusste moralische und künstlerische Entscheidungen.
KI generiert auf der Grundlage statistischer Wahrscheinlichkeiten: "Welche Pixelkonfiguration ist bei Eingabeaufforderung X und Trainingsset Y am wahrscheinlichsten?" Es gibt keine Intentionalität, keine Botschaft, keine Vision. Wie Ted Chiang in The New Yorker schrieb: "ChatGPT ist ein unscharfes Jpeg des Webs" - eine verlustbehaftete Komprimierung, bei der genau die Eigenschaften verloren gehen, die den ursprünglichen Inhalt wertvoll machen.
Transformation vs. Rekombination: Pablo Picasso studierte afrikanische Masken, schuf aber den Kubismus - eine völlig neue künstlerische Bewegung, die die räumliche Darstellung in der Malerei neu erfand. Die Transformation war radikal und originell.
Generative KI-Modelle arbeiten durch Interpolation im latenten Raum: Sie kombinieren Elemente des Trainingssatzes zu neuen Konfigurationen, bleiben aber an die statistische Verteilung der Daten gebunden, mit denen sie trainiert wurden. Sie können keine wirklich neue Ästhetik erfinden, die gegen gelernte statistische Regelmäßigkeiten verstößt. Wie MIT-Forschungsarbeiten zeigen (Shumailov et al., 2023), degenerieren Modelle, die wiederholt auf frühere KI-Ergebnisse trainiert wurden, nach und nach - ein Phänomen, das als "Modellkollaps" bezeichnet wird.
Hier liegt das zentrale Paradoxon: KI kann Ergebnisse erzeugen, die originell aussehen (kein Mensch hat dieses spezielle Bild im Ghibli-Stil je zuvor gesehen), aber statistisch gesehen abgeleitet sind (sie sind Interpolationen bestehender Muster). Es handelt sich um eine oberflächliche Form der Originalität ohne grundlegende Innovation.
Dies hat tiefgreifende Auswirkungen. Wie der Philosoph John Searle in seinem berühmten "Chinese-Room-Argument" darlegte, ist die Simulation eines kognitiven Prozesses nicht dasselbe wie dessen Besitz. KI kann Kreativität simulieren, ohne im menschlichen Sinne kreativ zu sein.
Angesichts dieser Kontroverse werden derzeit verschiedene Lösungen entwickelt:
Schutzinstrumente für Künstler:
Opt-out-Register:
Vergütungsrahmen:
Staatliche Vorschriften:
DasEU-KI-Gesetz (in Kraft getreten im August 2024) verpflichtet die Anbieter generativer KI-Modelle, detaillierte Zusammenfassungen der verwendeten urheberrechtlich geschützten Trainingsdaten zu veröffentlichen. Es ist der erste regulatorische Versuch, Transparenz zu erzwingen.
Das ELVIS-Gesetz des US-Bundesstaates Tennessee (März 2024) schützt die Stimme und das Bild von Künstlern in den ersten US-Bundesstaaten, die KI einsetzen, mit speziellen Rechtsvorschriften für Fälschungen von Stimmen und Bildern.
Zu den Vorschlägen an den US-Kongress gehören die Forderung nach einem ausdrücklichen Opt-in für urheberrechtlich geschützte Werke (anstelle eines Opt-out) und die Einrichtung öffentlicher Verzeichnisse von Ausbildungsdatensätzen.
Zwei Visionen von der Zukunft stehen einander gegenüber:
Optimistische Sichtweise (KI-Unternehmen): KI ist ein Werkzeug, das die menschliche Kreativität verstärkt, wie Photoshop oder Musiksynthesizer. Künstler werden KI nutzen, um Arbeitsabläufe zu beschleunigen, Variationen zu erforschen und kreative Blockaden zu überwinden. Es werden hybride Kunstformen entstehen, bei denen der Mensch die Vision steuert und die KI die technischen Teile übernimmt.
Konkrete Beispiele gibt es bereits: Der Film "The Frost" (2023) verwendet KI zur Generierung von Hintergründen und Texturen, wobei menschliche Künstler die künstlerische Leitung übernehmen. Musiker nutzen Suno und Udio, um Backing Tracks zu erzeugen, auf denen sie improvisieren können. Schriftsteller nutzen GPT als "Gummi-Ente", um erzählerische Ideen zu diskutieren.
Pessimistische Sicht (viele Kreative): KI wird Kreativität zur Ware machen und den wirtschaftlichen Wert kreativer Arbeit untergraben, bis nur noch Eliten mit außergewöhnlichen Fähigkeiten überleben. Die "durchschnittliche Kreativität" wird durch billige Generatoren ersetzt und damit die kreative Mittelschicht vernichtet - so wie die industrielle Automatisierung die Handwerker im 19.
Vorläufige Belege bestätigen diese Befürchtung: Auf Freiberuflerplattformen wie Fiverr gingen die Anfragen für Illustratoren und Texter im Jahr 2023 um 21 % zurück (Fiverr-Daten für Q4 2023), während die Angebote für die "KI-Kunstgenerierung" explodierten. Greg Rutkowski verzeichnete einen Rückgang der direkten Aufträge um 40 %, seit sein Stil auf Stable Diffusion populär wurde.
Die Wahrheit liegt wahrscheinlich irgendwo dazwischen: Einige Formen der kreativen Arbeit werden automatisiert werden (allgemeine Stock-Illustrationen, einfache Werbetexte), während höchst originelle, konzeptionelle, kulturell verwurzelte Kreativität eine menschliche Domäne bleiben wird.
Die Unterscheidung zwischen menschlichen und KI-Inhalten wird immer schwieriger werden. Schon heute ist es ohne Wasserzeichen oder Offenlegung oft unmöglich, GPT-4-Text von menschlichem Text oder Midjourney-Bilder von Fotos zu unterscheiden. Wenn Sora (OpenAI Video Generator) öffentlich wird, wird sich die Unterscheidung auch auf Videos ausweiten.
Dies wirft tiefgreifende Fragen zur Authentizität auf. Wenn ein KI-generiertes Bild im Ghibli-Stil die gleichen Emotionen hervorruft wie das Original, hat es dann den gleichen Wert? Der Philosoph Walter Benjamin vertrat in seinem Buch "Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit" (1935) die Ansicht, dass die mechanische Reproduzierbarkeit die "Aura" des Originalwerks - seine räumliche und zeitliche Einzigartigkeit und Authentizität - untergräbt.
Die generative KI treibt dieses Argument auf die Spitze: Sie reproduziert keine bestehenden Werke, sondern erzeugt unendliche Variationen, die das Original simulieren, ohne es zu sein. Sie ist das Baudrillard'sche Simulakrum - die Kopie ohne das Original.
Dennoch liegt im bewussten kreativen Akt etwas untrennbar Menschliches: der Künstler, der jeden Pinselstrich wählt, weil er weiß, was er vermitteln will, der Schriftsteller, der jeden Satz so gestaltet, dass er bestimmte Gefühle hervorruft, der Komponist, der Spannung und Auflösung mit Absicht aufbaut. Künstliche Intelligenz kann das Ergebnis simulieren, aber nicht den Prozess - und vielleicht liegt gerade im Prozess der wahre Wert der Kreativität.
Wie Studio Ghibli in einer Erklärung (November 2023) schrieb: "Die Seele unserer Filme liegt nicht in dem visuellen Stil, der kopiert werden kann, sondern in den kreativen Entscheidungen, die wir Bild für Bild treffen, um die Geschichte zu erzählen, die wir erzählen wollen. Das kann nicht automatisiert werden".
Der Wert der Kunst ergibt sich letztlich aus ihrer Fähigkeit, eine tiefe Verbindung zur menschlichen Erfahrung herzustellen - uns das Gefühl zu geben, verstanden zu werden, uns herauszufordern und zu verändern. Ob dies durch KI erreicht werden kann, bleibt eine offene Frage. Aber solange Kunst von Menschen für Menschen gemacht wird und von der menschlichen Situation spricht, wird sie etwas bewahren, was kein Algorithmus nachbilden kann: die Authentizität gelebter Erfahrung, die in ästhetische Form übersetzt wird.
Quellen: