Die Regulierung der künstlichen Intelligenz erfährt im Jahr 2025 einen tiefgreifenden Wandel, wobei der Schwerpunkt auf verbrauchernahen Anwendungen liegt. Unternehmen, die KI-Chatbots, automatisierte Entscheidungsfindungssysteme und generative Technologien einsetzen, müssen sich auf eine zunehmend komplexe und strenge Regulierungslandschaft einstellen.
Das Jahr 2025 markiert das Ende der "Wildwest"-Ära der KI-Entwicklung. Das europäische KI-Gesetz trat am 1. August 2024 in Kraft, wobei die wichtigsten Bestimmungen im Laufe des Jahres 2025 in Kraft traten: Die Verpflichtung zur Vermittlung von KI-Kenntnissen trat am 2. Februar 2025 in Kraft, während die Governance-Regeln und Verpflichtungen für GPAI-Modelle ab dem 2. August 2025 gelten.
Neu entstehende Vorschriften folgen einem dreistufigen Risikoansatz:
1. KI-Systeme für kritische Infrastrukturen: Anwendungen im Gesundheitswesen, im Verkehrswesen, im Energiesektor und auf den Finanzmärkten erfordern jetzt eine Zertifizierung vor dem Einsatz, eine kontinuierliche Überwachung und eine sinnvolle menschliche Kontrolle.
2. KI mit Kundenkontakt: Anwendungen, die direkt mit Verbrauchern interagieren, müssen klare Informationen über den Einsatz von KI liefern, umfassende Prüfpfade führen und Protokolle zur Erkennung von Verzerrungen implementieren.
3. AI General Purpose: Allgemeine Systeme erfordern ebenfalls eine Registrierung, grundlegende Sicherheitstests und die Offenlegung von Schulungsmethoden.
Der Gesetzentwurf 243 des kalifornischen Senats, der von Senator Steve Padilla eingebracht wurde, entstand als Reaktion auf den tragischen Selbstmord von Sewell Setzer, einem 14-jährigen Jungen aus Florida, der sich das Leben nahm, nachdem er eine emotionale Beziehung zu einem Chatbot aufgebaut hatte.
SB 243 Zentrale Anforderungen:
Das Gesetz sieht eine Privatklage mit einem tatsächlichen oder gesetzlichen Schadenersatz von 1.000 Dollar pro Verstoß vor, je nachdem, welcher Betrag höher ist.
SB 420 zielt darauf ab, einen Rechtsrahmen zu schaffen, der sicherstellt, dass KI-Systeme die Menschenrechte achten und Fairness, Transparenz und Rechenschaftspflicht fördern. Das Gesetz regelt die Entwicklung und Umsetzung von "automatisierten Entscheidungsfindungssystemen mit hohem Risiko", indem es Folgenabschätzungen zur Bewertung des Zwecks, der Datennutzung und des Potenzials für Verzerrungen vorschreibt.
Informationspflicht gegenüber Verbrauchern: Nach SB 420 müssen Personen, die von automatisierten Entscheidungsfindungssystemen betroffen sind, wissen, wann das System zur Entscheidungsfindung über sie eingesetzt wird, sie müssen Einzelheiten über das System erfahren und, sofern technisch machbar, die Möglichkeit haben, gegen diese Entscheidungen Widerspruch einzulegen.
Alabama, Hawaii, Illinois, Maine und Massachusetts haben im Jahr 2025 Gesetze eingebracht, nach denen die Nichtbenachrichtigung von Verbrauchern, die mit KI-Chatbots interagieren, einen Verstoß gegen das Gesetz gegen unlautere oder irreführende Handlungen oder Praktiken (Unfair or Deceptive Acts or Practices, UDAP) darstellt und Unternehmen Ermittlungen des Generalstaatsanwalts und mögliche Privatklagen nach sich ziehen.
Hawaii (HB 639): Würde die Verwendung von KI-Chatbots, die in der Lage sind, menschliches Verhalten zu imitieren, ohne dies den Verbrauchern zuvor klar und deutlich mitzuteilen, als unlauter oder irreführend einstufen. Kleine Unternehmen, die unwissentlich KI-Chatbots verwenden, sind von der Regelung ausgenommen, es sei denn, sie werden deutlich benachrichtigt.
Illinois (HB 3021): Änderung des Gesetzes über Verbraucherbetrug und irreführende Geschäftspraktiken, um eine klare Benachrichtigung zu verlangen, wenn Verbraucher mit Chatbots, KI-Agenten oder Avataren kommunizieren, die den Eindruck erwecken könnten, sie würden mit Menschen kommunizieren.
Kalifornien hat das erste Gesetz zur Offenlegung von Bots erlassen (Cal. Bus. & Prof. Code § 17940-17942), das die Offenlegung vorschreibt, wenn Bots zur "wissentlichen Täuschung" einer Person bei geschäftlichen Transaktionen oder zur Beeinflussung von Wahlen eingesetzt werden.
Der Artificial Intelligence Policy Act von Utah, der am 1. Mai 2024 in Kraft getreten ist, schreibt vor, dass Bots, die mit Verbrauchern in Kontakt treten, "auf Anfrage" offenlegen müssen, dass die Verbraucher mit "generativer künstlicher Intelligenz und nicht mit einem Menschen" interagieren.
Im Jahr 2022 verklagten Kunden der Abnehm-App Noom das Unternehmen wegen angeblicher Verstöße gegen das kalifornische Bot-Offenlegungsgesetz. Sie behaupteten, Noom habe fälschlicherweise dargestellt, dass Mitglieder maßgeschneiderte Pläne von menschlichen Trainern erhalten würden, obwohl es sich in Wirklichkeit um automatische Bots handelte. Die Parteien einigten sich auf einen Vergleich in Höhe von 56 Millionen Dollar.
Die FTC hat Richtlinien herausgegeben, die von den Unternehmen verlangen, dass sie "die Art des Tools, mit dem die Benutzer interagieren, transparent machen" und davor warnen, automatisierte Tools zu verwenden, um Menschen zu täuschen.
Gemäß dem EU-KI-Gesetz müssen KI-Anbieter ab August 2026 die Nutzer informieren, wenn sie mit KI interagieren, es sei denn, es ist offensichtlich. KI-generierte Inhalte müssen, abgesehen von geringfügigen Änderungen, eindeutig und maschinenlesbar gekennzeichnet sein.
Auch Unternehmen, die sich selbst nicht als KI-Unternehmen betrachten, könnten Chatbots vorbehaltlich der Regulierung einsetzen. Chatbots sind in den Bereichen Kundenservice, Gesundheitswesen, Banken, Bildung, Marketing und Unterhaltung allgegenwärtig.
Unternehmen müssen sich in einer zersplitterten Regulierungslandschaft mit unterschiedlichen Anforderungen in den verschiedenen Rechtsordnungen zurechtfinden. Das Fehlen eines bundesweiten Vorrangs bedeutet, dass Unternehmen in den verschiedenen Staaten unterschiedliche Anforderungen erfüllen müssen.
Die staatlichen Gesetzgeber erwägen ein breites Spektrum an KI-Gesetzen. Bis 2025 sollen Hunderte von Vorschriften eingeführt werden, darunter umfassende Verbraucherschutzgesetze, branchenspezifische Vorschriften und Chatbot-Vorschriften.
Unternehmen, die der KI-Governance Vorrang einräumen, werden einen Wettbewerbsvorteil erlangen, da die proaktive Einhaltung von Vorschriften der Schlüssel ist, um das volle Potenzial der KI zu erschließen und gleichzeitig rechtliche Fallstricke zu vermeiden.
Die Regulierungslandschaft für verbraucherorientierte KI-Anwendungen entwickelt sich rasant. Kalifornien ist Vorreiter mit einer umfassenden Gesetzgebung, die sowohl die Sicherheit von Chatbots (SB 243) als auch die Transparenz von KI-Entscheidungen im weiteren Sinne (SB 420) betrifft.
Dieser Flickenteppich aus einzelstaatlichen Vorschriften stellt Unternehmen, die in mehreren Ländern tätig sind, vor Herausforderungen bei der Einhaltung der Vorschriften, während das Fehlen einer bundesstaatlichen Präemption bedeutet, dass Unternehmen mit unterschiedlichen Anforderungen zurechtkommen müssen.
Die Betonung von Transparenz, menschlichen Aufsichtsrechten und dem Schutz schutzbedürftiger Bevölkerungsgruppen signalisiert eine Verlagerung hin zu einer stärker präskriptiven KI-Governance, die dem Verbraucherschutz Vorrang vor der Flexibilität von Innovationen einräumt.
Verbraucherorientierte KI-Anwendungen sind Systeme der künstlichen Intelligenz, die direkt mit den Verbrauchern interagieren. Dazu gehören Chatbots für den Kundendienst, virtuelle Assistenten, Empfehlungssysteme und konversationelle KI, die in Bereichen wie E-Commerce, Gesundheitswesen, Finanzdienstleistungen und Unterhaltung eingesetzt werden.
Zu den wichtigsten Anforderungen gehören:
Nein, SB 243 gilt speziell für "Companion Chatbots" - KI-Systeme mit einer natürlichsprachlichen Schnittstelle, die adaptive, menschenähnliche Antworten geben und in der Lage sind, die sozialen Bedürfnisse der Nutzer zu erfüllen. Nicht alle Chatbots für den Kundendienst fallen zwangsläufig unter diese Definition.
Die Sanktionen sind von Staat zu Staat unterschiedlich, können aber Folgendes umfassen:
Unternehmen sollten:
Ja, das KI-Gesetz gilt für jedes KI-System, das Nutzer in der EU bedient, unabhängig davon, wo das Unternehmen seinen Sitz hat. Ab August 2026 müssen die Anbieter die Nutzer informieren, wenn sie mit KI interagieren, es sei denn, es ist offensichtlich.
Unternehmen müssen die Gesetze jedes Staates einhalten, in dem sie tätig sind. Gegenwärtig gibt es keine föderale Präemption, so dass es notwendig ist, Strategien zur Einhaltung der Vorschriften in mehreren Staaten zu entwickeln, die den strengsten Anforderungen entsprechen.
Einige Verordnungen sehen Ausnahmen oder reduzierte Anforderungen für kleine Unternehmen vor. Zum Beispiel befreit Hawaii HB 639 kleine Unternehmen, die unwissentlich KI-Chatbots verwenden, vorausgesetzt, sie erfüllen die Anforderungen, nachdem sie ordnungsgemäß informiert wurden.
Quellen und Referenzlinks: