

Die Europäische Union hat mit dem Inkrafttreten des KI-Gesetzes, der weltweit ersten umfassenden Gesetzgebung zur künstlichen Intelligenz, einen historischen Schritt getan. Mit diesem revolutionären Rechtsakt, der Europa an die Spitze der KI-Governance stellt, wird ein risikobasierter Rechtsrahmen geschaffen, der ein Gleichgewicht zwischen Innovation und dem Schutz der Grundrechte herstellen soll. Die Verordnung ist jedoch auch ein weiteres Beispiel für den so genannten "Brüsseler Effekt" - der Tendenz der EU, durch ihre Marktmacht ihre Regeln auf globaler Ebene durchzusetzen, ohne unbedingt die technologische Innovation voranzutreiben.
Während die USA und China die Entwicklung von KI mit massiven öffentlichen und privaten Investitionen anführen (45 % bzw. 30 % der weltweiten Investitionen im Jahr 2024), hat Europa nur 10 % der weltweiten Investitionen in KI angezogen. Als Reaktion darauf versucht die EU, ihren technologischen Rückstand durch Regulierung auszugleichen, indem sie Standards vorschreibt, die letztlich das gesamte globale Ökosystem beeinflussen.
Die zentrale Frage lautet: Schafft Europa ein Umfeld, das verantwortungsvolle Innovationen fördert, oder exportiert es lediglich Bürokratie in eine Branche, in der es nicht konkurrenzfähig ist?
Das KI-Gesetz gilt nicht nur für europäische Unternehmen, sondern auch für Unternehmen, die auf dem europäischen Markt tätig sind oder deren KI-Systeme Auswirkungen auf EU-Bürger haben. Diese extraterritoriale Zuständigkeit wird besonders in den Bestimmungen über GPAI-Modelle deutlich, wo es in Erwägungsgrund 106 des Gesetzes heißt, dass Anbieter das EU-Urheberrecht "unabhängig von der Gerichtsbarkeit, in der die Ausbildung der Modelle stattfindet", beachten müssen.
Dieser Ansatz wurde von einigen Beobachtern heftig kritisiert, die darin einen Versuch der EU sehen, ihre Regeln Unternehmen aufzuzwingen, die nicht in ihrem Hoheitsgebiet ansässig sind. Den Kritikern zufolge könnte dies zu einer Spaltung des globalen Technologie-Ökosystems führen, da die Unternehmen gezwungen wären, separate Versionen ihrer Produkte für den europäischen Markt zu entwickeln oder europäische Normen für alle Märkte zu übernehmen, um zusätzliche Kosten für die Einhaltung der Vorschriften zu vermeiden.
Multinationale Technologieunternehmen befinden sich daher in einer schwierigen Lage: Den europäischen Markt zu ignorieren ist keine gangbare Option, aber die Einhaltung des KI-Gesetzes erfordert erhebliche Investitionen und könnte den Spielraum für Innovationen einschränken. Dieser Effekt wird durch den ehrgeizigen Umsetzungszeitplan und die Auslegungsunsicherheit vieler Bestimmungen noch verstärkt.
Das AI-Gesetz ist am 1. August 2024 in Kraft getreten, aber seine Umsetzung erfolgt zeitlich gestaffelt:
Die Verordnung verfolgt einen risikobasierten Ansatz, bei dem KI-Systeme in vier Kategorien eingeteilt werden: unannehmbares Risiko (verboten), hohes Risiko (unterliegt strengen Anforderungen), begrenztes Risiko (mit Transparenzverpflichtungen) und minimales oder kein Risiko (freie Nutzung). Diese Kategorisierung bestimmt die spezifischen Verpflichtungen für Entwickler, Anbieter und Nutzer.
Eine der wichtigsten Neuerungen des AI-Gesetzes betrifft die Transparenzverpflichtungen, mit denen das Problem der "Black Box" angegangen werden soll.Blackbox"von KI-Systemen. Diese Verpflichtungen umfassen:
Diese Anforderungen sollen zwar die Rechte der Bürgerinnen und Bürger schützen, könnten aber eine erhebliche Belastung für Unternehmen darstellen, insbesondere für innovative Start-ups und KMU. Die Notwendigkeit, Entwicklungsprozesse, Ausbildungsdaten und Entscheidungslogik detailliert zu dokumentieren, könnte die Innovationszyklen verlangsamen und die Entwicklungskosten erhöhen, wodurch europäische Unternehmen im Vergleich zu Wettbewerbern in anderen Regionen mit weniger strengen Vorschriften benachteiligt würden.

Das Urteil in der Rechtssache C-203/22 verdeutlicht, wie sich Unternehmen zunächst gegen Transparenzvorgaben wehren. Der Beklagte, ein Telekommunikationsanbieter, argumentierte, dass die Offenlegung der Logik seines Kreditbewertungsalgorithmus Geschäftsgeheimnisse preisgeben und damit seinen Wettbewerbsvorteil gefährden würde6 . Der EuGH wies dieses Argument zurück und stellte fest, dass der Einzelne nach Artikel 22 der Datenschutz-Grundverordnung Anspruch auf eine Erläuterung der "Kriterien und der Logik" hat, die automatisierten Entscheidungen zugrunde liegen, selbst wenn diese vereinfacht sind.6 .
Gemäß dem zweistufigen System des KI-Gesetzes fallen die meisten generativen KI-Modelle unter Stufe 1, die die Einhaltung des EU-Urheberrechts und Zusammenfassungen der Trainingsdaten erfordert2 . Um Klagen wegen Urheberrechtsverletzungen zu vermeiden, sind Unternehmen wie OpenAI auf zusammengefasste Daten oder lizenzierte Inhalte umgestiegen, aber es gibt weiterhin Lücken in der Dokumentation.
Das KI-Gesetz enthält spezifische Urheberrechtsbestimmungen, die den regulatorischen Einfluss der EU weit über ihre Grenzen hinaus ausdehnen. GPAI-Modellanbieter müssen:
In Erwägungsgrund 106 des AI-Gesetzes heißt es, dass die Anbieter das EU-Urheberrecht einhalten müssen, "unabhängig von der Gerichtsbarkeit, in der die Modellschulung stattfindet". Dieser extraterritoriale Ansatz wirft Fragen zur Vereinbarkeit mit den Grundsätzen der Territorialität des Urheberrechts auf und könnte zu Regelungskonflikten mit anderen Rechtsordnungen führen.
Für globale Technologieunternehmen stellt das KI-Gesetz eine grundlegende strategische Entscheidung dar: Anpassung an den "Brüsseler Effekt" und Einhaltung europäischer Standards auf globaler Ebene oder Entwicklung differenzierter Ansätze für verschiedene Märkte? Es haben sich mehrere Strategien herauskristallisiert:
Einige große Technologieunternehmen entwickeln ein "duales Betriebsmodell":
Dieser Ansatz ist zwar kostspielig, ermöglicht aber die Aufrechterhaltung einer europäischen Marktpräsenz, ohne die globale Innovation zu beeinträchtigen. Diese Zersplitterung könnte jedoch dazu führen, dass sich die technologische Kluft vergrößert und die europäischen Nutzer Zugang zu weniger fortschrittlichen Technologien haben als die Nutzer in anderen Regionen.
Das europäische KI-Gesetz stellt einen Wendepunkt in der KI-Regulierung dar, aber seine Komplexität und die Unklarheiten bei der Auslegung schaffen ein Klima der Unsicherheit, das sich negativ auf Innovation und Investitionen in diesem Sektor auswirken könnte. Die Unternehmen stehen vor mehreren Herausforderungen:
Die sich verändernde Regulierungslandschaft stellt ein erhebliches Risiko für die Unternehmen dar. Die Auslegung von Schlüsselbegriffen wie "ausreichend detaillierte Zusammenfassung" oder die Einstufung von Systemen mit "hohem Risiko" ist nach wie vor unklar. Diese Unsicherheit könnte dazu führen, dass:

Die Debatte über den "Brüsseler Effekt" ist in den breiteren Kontext der europäischen technologischen Souveränität eingebettet. Die EU befindet sich in der schwierigen Lage, ein Gleichgewicht zwischen der Notwendigkeit, interne Innovationen zu fördern, und der Notwendigkeit, Technologien zu regulieren, die hauptsächlich von außereuropäischen Akteuren entwickelt werden, herzustellen.
Im Jahr 2024 werden europäische Unternehmen nur 10 Prozent der weltweiten KI-Investitionen auf sich ziehen, während die USA und China den Sektor mit einer Kombination aus massiven öffentlichen und privaten Investitionen, innovationsfreundlicher Politik und Zugang zu Big Data dominieren. Europa mit seiner sprachlichen, kulturellen und regulatorischen Fragmentierung tut sich schwer damit, technologische "Champions" hervorzubringen, die im globalen Wettbewerb bestehen können.
Kritiker argumentieren, dass der auf die Regulierung ausgerichtete europäische Ansatz die Gefahr birgt, Innovationen weiter zu ersticken und Investitionen abzuschrecken, während die Befürworter der Ansicht sind, dass die Schaffung eines verlässlichen Rechtsrahmens die Entwicklung einer ethischen und sicheren "by design"-KI tatsächlich fördern und einen langfristigen Wettbewerbsvorteil schaffen kann.
Der "Brüsseler Effekt" des KI-Gesetzes verdeutlicht ein grundlegendes Spannungsverhältnis im europäischen Technologieansatz: Der Fähigkeit, durch Regulierung globale Standards zu setzen, steht keine entsprechende Führungsrolle bei der technologischen Innovation gegenüber. Diese Asymmetrie wirft Fragen über die langfristige Nachhaltigkeit dieses Ansatzes auf.
Wenn Europa weiterhin Technologien reguliert, die es nicht selbst entwickelt, läuft es Gefahr, in eine zunehmende technologische Abhängigkeit zu geraten, in der seine Vorschriften in einem sich rasch entwickelnden globalen Ökosystem immer weniger relevant werden. Außerdem könnten sich außereuropäische Unternehmen nach und nach vom europäischen Markt zurückziehen oder dort nur begrenzte Versionen ihrer Produkte anbieten, wodurch eine "digitale Festung Europa" entstehen würde, die zunehmend vom globalen Fortschritt isoliert ist.
Andererseits könnte die EU, wenn sie ihren Regulierungsansatz mit einer wirksamen Strategie zur Innovationsförderung ausbalancieren könnte, einen "dritten Weg" zwischen dem amerikanischen Kapitalismus und der chinesischen Staatskontrolle definieren, der die Menschenrechte und demokratischen Werte in den Mittelpunkt der technologischen Entwicklung stellt. Vaste Programme würden in Frankreich sagen.
Die Zukunft der KI in Europa wird nicht nur von der Wirksamkeit des KI-Gesetzes beim Schutz der Grundrechte abhängen, sondern auch von der Fähigkeit Europas, die Regulierung mit angemessenen Investitionen in Innovationen zu verbinden und den Rechtsrahmen zu vereinfachen, um ihn weniger erdrückend zu gestalten. Andernfalls läuft Europa Gefahr, sich in einer paradoxen Situation wiederzufinden: weltweit führend in der KI-Regulierung, aber marginal in deren Entwicklung und Umsetzung.