Newsletter

Maschinen, die (auch) aus unseren Fehlern lernen Der Bumerang-Effekt: Wir bringen der KI unsere Fehler bei und sie gibt sie uns zurück... multipliziert!

Die KI erbt unsere Vorurteile - und verstärkt sie dann. Wir sehen die voreingenommenen Ergebnisse - und verstärken sie. Ein sich selbst nährender Kreislauf. Eine UCL-Studie ergab, dass eine Verzerrung von 4,7 % bei der Gesichtserkennung nach Interaktionen zwischen Mensch und KI auf 11,3 % anstieg. Im Personalwesen erhöht jeder Zyklus die geschlechtsspezifische Verzerrung um 8-14 %. Die gute Nachricht? Die Technik des "algorithmischen Spiegels", die Managern zeigt, wie ihre Entscheidungen aussehen würden, wenn sie von einer KI getroffen würden, verringert die Voreingenommenheit um 41 %.

Einige jüngsten Forschungen haben ein interessantes Phänomen hervorgehoben: Es gibt eine "wechselseitige" Beziehung zwischen den Verzerrungen in Modellen der künstlichen Intelligenz und denen des menschlichen Denkens.

Diese Wechselwirkung schafft einen Mechanismus, der dazu neigt kognitive Verzerrungen in beide Richtungen zu verstärken.

Diese Forschung zeigt, dass KI-Systeme nicht nur menschliche Voreingenommenheit aus den Trainingsdaten übernehmen, sondern diese bei der Implementierung noch verstärken können, was wiederum die Entscheidungsprozesse der Menschen beeinflusst. Dadurch entsteht ein Kreislauf, der, wenn er nicht richtig gehandhabt wird, das Risiko birgt, dass die anfänglichen Voreingenommenheiten nach und nach verstärkt werden.

Dieses Phänomen ist besonders in wichtigen Sektoren wie z. B:

In diesen Bereichen können sich kleine anfängliche Verzerrungen durch wiederholte Interaktionen zwischen menschlichen Bedienern und automatisierten Systemen verstärken und sich allmählich zu signifikante Unterschiede in den Ergebnissen.

Die Ursprünge der Vorurteile

Im menschlichen Denken

Der menschliche Verstand verwendet naturgemäß "Denkabkürzungen", die zu systematischen Fehlern in unseren Urteilen führen können. Die Theorie des "doppelten Denkens" unterscheidet zwischen:

  • Schnelles und intuitives Denken (Neigung zu Stereotypen)
  • Langsames und reflektierendes Denken (in der Lage, Vorurteile zu korrigieren)

Im medizinischen Bereich beispielsweise neigen Ärzte dazu, ersten Hypothesen zu viel Gewicht beizumessen und gegenteilige Beweise zu vernachlässigen. Dieses als "Confirmation Bias" bezeichnete Phänomen wird von KI-Systemen, die auf historischen Diagnosedaten trainiert wurden, wiederholt und verstärkt.

In AI-Modellen

Modelle des maschinellen Lernens führen hauptsächlich über drei Kanäle zu Verzerrungen:

  1. Unausgewogene Trainingsdaten, die historische Ungleichheiten widerspiegeln
  2. Auswahl von Merkmalen, die geschützte Eigenschaften beinhalten (wie Geschlecht oder ethnische Zugehörigkeit)
  3. Rückkopplungsschleifen, die sich aus der Interaktion mit bereits verzerrten menschlichen Entscheidungen ergeben

Eine 2024 UCL-Studie zeigte, dass Gesichtserkennungssysteme, die auf emotionale Beurteilungen von Menschen trainiert wurden, eine 4,7-prozentige Tendenz zur Einstufung von Gesichtern als "traurig" vererben und diese Tendenz bei nachfolgenden Interaktionen mit Nutzern auf 11,3 Prozent verstärken.

Wie sie sich gegenseitig verstärken

Die Datenanalyse von Rekrutierungsplattformen zeigt, dass jeder Zyklus der Zusammenarbeit zwischen Mensch und Algorithmus die geschlechtsspezifische Voreingenommenheit durch sich gegenseitig verstärkende Feedback-Mechanismen um 8-14 % erhöht.

Wenn Personalverantwortliche von der KI Listen von Bewerbern erhalten, die bereits von historischen Vorurteilen beeinflusst sind, verstärken ihre nachfolgenden Interaktionen (z. B. die Auswahl von Interviewfragen oder Leistungsbewertungen) die verzerrten Darstellungen des Modells.

Eine Meta-Analyse von 47 Studien aus dem Jahr 2025 ergab, dass drei Runden der Zusammenarbeit zwischen Mensch und IKT die demografischen Ungleichheiten in Bereichen wie Gesundheitsversorgung, Kreditvergabe und Bildung um das 1,7- bis 2,3-fache vergrößert haben.

Strategien zur Messung und Milderung von Vorurteilen

Quantifizierung durch maschinelles Lernen

Der von Dong et al. (2024) vorgeschlagene Rahmen für die Messung von Verzerrungen ermöglicht die Erkennung von Verzerrungen ohne die Notwendigkeit von Kennzeichnungen der "absoluten Wahrheit", indem Diskrepanzen in den Entscheidungsmustern zwischen geschützten Gruppen analysiert werden.

Kognitive Interventionen

Die von UCL-Forschern entwickelte Technik des "algorithmischen Spiegels" verringerte die geschlechtsspezifische Voreingenommenheit bei Beförderungsentscheidungen um 41 %, indem sie Managern zeigte, wie ihre historischen Entscheidungen aussehen würden, wenn sie von einem KI-System getroffen worden wären.

Besonders vielversprechend sind Trainingsprotokolle, bei denen zwischen der Unterstützung durch die künstliche Intelligenz und der autonomen Entscheidungsfindung abgewechselt wird. In klinischen Diagnosestudien konnten die Auswirkungen der Übertragung von Verzerrungen von 17 % auf 6 % reduziert werden.

Auswirkungen auf die Gesellschaft

Unternehmen, die KI-Systeme implementieren, ohne die Wechselwirkungen mit menschlichen Voreingenommenheiten zu berücksichtigen, sehen sich erhöhten rechtlichen und betrieblichen Risiken ausgesetzt.

Eine Analyse von Diskriminierungsfällen im Bereich der Beschäftigung zeigt, dass KI-gestützte Einstellungsverfahren die Erfolgsquote der Kläger um 28 Prozent im Vergleich zu herkömmlichen, von Menschen geführten Fällen erhöhen, da die Spuren der algorithmischen Entscheidungen klarere Beweise für ungleiche Auswirkungen liefern.

Auf dem Weg zu einer künstlichen Intelligenz, die Freiheit und Effizienz respektiert

Der Zusammenhang zwischen algorithmischen Verzerrungen und der Einschränkung der Wahlfreiheit macht es erforderlich, dass wir die technologische Entwicklung aus der Perspektive der individuellen Verantwortung und der Sicherung der Markteffizienz neu überdenken. Es muss sichergestellt werden, dass die KI ein Instrument wird, das die Möglichkeiten erweitert und sie nicht einschränkt.

Zu den vielversprechenden Richtungen gehören:

  • Marktlösungen, die Anreize für die Entwicklung von unvoreingenommenen Algorithmen bieten
  • Größere Transparenz bei automatisierten Entscheidungsprozessen
  • Deregulierung zur Förderung des Wettbewerbs zwischen verschiedenen technologischen Lösungen

Nur durch eine verantwortungsvolle Selbstregulierung der Industrie in Verbindung mit der Wahlfreiheit der Nutzer können wir sicherstellen, dass die technologische Innovation auch weiterhin ein Motor für Wohlstand und Chancen für all diejenigen ist, die bereit sind, ihre Fähigkeiten unter Beweis zu stellen.

Ressourcen für Unternehmenswachstum

November 9, 2025

KI-Regulierung für Verbraucheranwendungen: Wie man sich auf die neuen Vorschriften für 2025 vorbereitet

Das Jahr 2025 markiert das Ende der "Wildwest"-Ära der KI: Das KI-Gesetz der EU ist ab August 2024 in Kraft und verpflichtet ab 2. Februar 2025 zu KI-Kenntnissen, ab 2. August zu Governance und GPAI. Kalifornien ist Vorreiter mit SB 243 (nach dem Selbstmord von Sewell Setzer, einem 14-Jährigen, der eine emotionale Beziehung zu einem Chatbot aufbaute), das ein Verbot von Belohnungssystemen mit Zwangscharakter, die Erkennung von Selbstmordgedanken, die Erinnerung alle drei Stunden "Ich bin kein Mensch", unabhängige öffentliche Audits und Strafen von 1.000 Dollar pro Verstoß vorsieht. SB 420 verlangt Folgenabschätzungen für "risikoreiche automatisierte Entscheidungen" mit Einspruchsrechten für Menschen. Reale Durchsetzung: Noom wurde 2022 wegen Bots, die sich als menschliche Trainer ausgaben, zitiert, Vergleich 56 Mio. $. Nationaler Trend: Alabama, Hawaii, Illinois, Maine, Massachusetts stufen das Versäumnis, KI-Chatbots zu benachrichtigen, als Verstoß gegen den UDAP ein. Dreistufiger Ansatz für risikokritische Systeme (Gesundheitswesen/Verkehr/Energie), Zertifizierung vor dem Einsatz, transparente Offenlegung gegenüber den Verbrauchern, allgemeine Registrierung und Sicherheitstests. Regulatorischer Flickenteppich ohne föderale Vorrangstellung: Unternehmen aus mehreren Staaten müssen sich mit unterschiedlichen Anforderungen auseinandersetzen. EU ab August 2026: Information der Nutzer über KI-Interaktion, sofern nicht offensichtlich, Kennzeichnung von KI-generierten Inhalten als maschinenlesbar.
November 9, 2025

Regulierung dessen, was nicht geschaffen wird: Riskiert Europa technologische Irrelevanz?

Europa zieht nur ein Zehntel der weltweiten Investitionen in künstliche Intelligenz an, beansprucht aber, globale Regeln zu diktieren. Das ist der "Brüsseler Effekt" - die Auferlegung von Regeln auf globaler Ebene durch Marktmacht, ohne die Innovation voranzutreiben. Das KI-Gesetz tritt zeitlich gestaffelt bis 2027 in Kraft, aber multinationale Technologieunternehmen reagieren mit kreativen Umgehungsstrategien: Sie berufen sich auf Geschäftsgeheimnisse, um die Offenlegung von Trainingsdaten zu vermeiden, erstellen technisch konforme, aber unverständliche Zusammenfassungen, nutzen Selbsteinschätzungen, um Systeme von "hohem Risiko" auf "minimales Risiko" herabzustufen, und wählen Mitgliedsstaaten mit weniger strengen Kontrollen. Das Paradoxon des extraterritorialen Urheberrechts: Die EU verlangt, dass OpenAI die europäischen Gesetze auch bei Schulungen außerhalb Europas einhält - ein Prinzip, das es im internationalen Recht noch nie gab. Es entsteht ein "duales Modell": begrenzte europäische Versionen vs. fortgeschrittene globale Versionen der gleichen KI-Produkte. Das reale Risiko: Europa wird zu einer "digitalen Festung", die von der globalen Innovation isoliert ist, und die europäischen Bürger haben Zugang zu minderwertigen Technologien. Der Gerichtshof hat im Fall der Kreditwürdigkeitsprüfung bereits die Einrede des Geschäftsgeheimnisses" zurückgewiesen, aber die Auslegungsunsicherheit ist nach wie vor enorm - was genau bedeutet eine ausreichend detaillierte Zusammenfassung"? Das weiß niemand. Letzte unbeantwortete Frage: Schafft die EU einen ethischen dritten Weg zwischen dem US-Kapitalismus und der chinesischen Staatskontrolle oder exportiert sie einfach nur Bürokratie in einen Bereich, in dem sie nicht konkurrenzfähig ist? Fürs Erste: weltweit führend in der KI-Regulierung, marginal in ihrer Entwicklung. Umfangreiches Programm.
November 9, 2025

Ausreißer: Wo Datenwissenschaft auf Erfolgsgeschichten trifft

Die Datenwissenschaft hat das Paradigma auf den Kopf gestellt: Ausreißer sind nicht länger "zu eliminierende Fehler", sondern wertvolle Informationen, die es zu verstehen gilt. Ein einziger Ausreißer kann ein lineares Regressionsmodell völlig verzerren - die Steigung von 2 auf 10 ändern -, aber ihn zu eliminieren könnte bedeuten, das wichtigste Signal im Datensatz zu verlieren. Mit dem maschinellen Lernen werden ausgefeilte Tools eingeführt: Isolation Forest isoliert Ausreißer durch die Erstellung zufälliger Entscheidungsbäume, Local Outlier Factor analysiert die lokale Dichte, Autoencoder rekonstruieren normale Daten und melden, was sie nicht reproduzieren können. Es gibt globale Ausreißer (Temperatur -10°C in den Tropen), kontextuelle Ausreißer (1.000 € in einer armen Gegend ausgeben), kollektive Ausreißer (synchronisierte Spitzen im Verkehrsnetz, die auf einen Angriff hindeuten). Parallele zu Gladwell: die "10.000-Stunden-Regel" ist umstritten - Paul McCartneys Dixit "viele Bands haben 10.000 Stunden in Hamburg gespielt, ohne Erfolg, die Theorie ist nicht unfehlbar". Der mathematische Erfolg der Asiaten ist nicht genetisch, sondern kulturell bedingt: das chinesische Zahlensystem ist intuitiver, der Reisanbau erfordert eine ständige Verbesserung, während die westliche Landwirtschaft sich territorial ausdehnt. Reale Anwendungen: Britische Banken gewinnen durch die Erkennung von Anomalien in Echtzeit 18 % ihrer potenziellen Verluste zurück, in der Fertigung werden mikroskopisch kleine Defekte entdeckt, die bei einer menschlichen Inspektion übersehen würden, im Gesundheitswesen werden Daten aus klinischen Studien mit einer Empfindlichkeit von über 85 % bei der Erkennung von Anomalien validiert. Letzte Lektion: Da sich die Datenwissenschaft von der Eliminierung von Ausreißern zu deren Verständnis hinbewegt, müssen wir unkonventionelle Karrieren nicht als Anomalien betrachten, die korrigiert werden müssen, sondern als wertvolle Verläufe, die untersucht werden müssen.