Fabio Lauria

Maschinen, die (auch) aus unseren Fehlern lernen Der Bumerang-Effekt: Wir bringen der KI unsere Fehler bei und sie gibt sie uns zurück... multipliziert!

April 13, 2025
Auf sozialen Medien teilen

Einige jüngsten Forschungen haben ein interessantes Phänomen hervorgehoben: Es gibt eine "wechselseitige" Beziehung zwischen den Verzerrungen in Modellen der künstlichen Intelligenz und denen des menschlichen Denkens.

Diese Wechselwirkung schafft einen Mechanismus, der dazu neigt kognitive Verzerrungen in beide Richtungen zu verstärken.

Diese Forschung zeigt, dass KI-Systeme nicht nur menschliche Voreingenommenheit aus den Trainingsdaten übernehmen, sondern diese bei der Implementierung noch verstärken können, was wiederum die Entscheidungsprozesse der Menschen beeinflusst. Dadurch entsteht ein Kreislauf, der, wenn er nicht richtig gehandhabt wird, das Risiko birgt, dass die anfänglichen Voreingenommenheiten nach und nach verstärkt werden.

Dieses Phänomen ist besonders in wichtigen Sektoren wie z. B:

In diesen Bereichen können sich kleine anfängliche Verzerrungen durch wiederholte Interaktionen zwischen menschlichen Bedienern und automatisierten Systemen verstärken und sich allmählich zu signifikante Unterschiede in den Ergebnissen.

Die Ursprünge der Vorurteile

Im menschlichen Denken

Der menschliche Verstand verwendet naturgemäß "Denkabkürzungen", die zu systematischen Fehlern in unseren Urteilen führen können. Die Theorie des "doppelten Denkens" unterscheidet zwischen:

  • Schnelles und intuitives Denken (Neigung zu Stereotypen)
  • Langsames und reflektierendes Denken (in der Lage, Vorurteile zu korrigieren)

Im medizinischen Bereich beispielsweise neigen Ärzte dazu, ersten Hypothesen zu viel Gewicht beizumessen und gegenteilige Beweise zu vernachlässigen. Dieses als "Confirmation Bias" bezeichnete Phänomen wird von KI-Systemen, die auf historischen Diagnosedaten trainiert wurden, wiederholt und verstärkt.

In AI-Modellen

Modelle des maschinellen Lernens führen hauptsächlich über drei Kanäle zu Verzerrungen:

  1. Unausgewogene Trainingsdaten, die historische Ungleichheiten widerspiegeln
  2. Auswahl von Merkmalen, die geschützte Eigenschaften beinhalten (wie Geschlecht oder ethnische Zugehörigkeit)
  3. Rückkopplungsschleifen, die sich aus der Interaktion mit bereits verzerrten menschlichen Entscheidungen ergeben

Eine 2024 UCL-Studie zeigte, dass Gesichtserkennungssysteme, die auf emotionale Beurteilungen von Menschen trainiert wurden, eine 4,7-prozentige Tendenz zur Einstufung von Gesichtern als "traurig" vererben und diese Tendenz bei nachfolgenden Interaktionen mit Nutzern auf 11,3 Prozent verstärken.

Wie sie sich gegenseitig verstärken

Die Datenanalyse von Rekrutierungsplattformen zeigt, dass jeder Zyklus der Zusammenarbeit zwischen Mensch und Algorithmus die geschlechtsspezifische Voreingenommenheit durch sich gegenseitig verstärkende Feedback-Mechanismen um 8-14 % erhöht.

Wenn Personalverantwortliche von der künstlichen Intelligenz Listen von Bewerbern erhalten, die bereits von historischen Vorurteilen beeinflusst sind, verstärken ihre nachfolgenden Interaktionen (z. B. die Auswahl von Interviewfragen oder Leistungsbewertungen) verzerrte Darstellungen des Modells.

Eine Meta-Analyse von 47 Studien aus dem Jahr 2025 ergab, dass drei Runden der Zusammenarbeit zwischen Mensch und IKT die demografischen Ungleichheiten in Bereichen wie Gesundheitsversorgung, Kreditvergabe und Bildung um das 1,7- bis 2,3-fache vergrößert haben.

Strategien zur Messung und Milderung von Vorurteilen

Quantifizierung durch maschinelles Lernen

Der von Dong et al. (2024) vorgeschlagene Rahmen für die Messung von Verzerrungen ermöglicht die Erkennung von Verzerrungen ohne die Notwendigkeit von Kennzeichnungen der "absoluten Wahrheit", indem Diskrepanzen in den Entscheidungsmustern zwischen geschützten Gruppen analysiert werden.

Kognitive Interventionen

Die von UCL-Forschern entwickelte Technik des "algorithmischen Spiegels" verringerte die geschlechtsspezifische Voreingenommenheit bei Beförderungsentscheidungen um 41 %, indem sie Managern zeigte, wie ihre historischen Entscheidungen aussehen würden, wenn sie von einem KI-System getroffen worden wären.

Besonders vielversprechend sind Trainingsprotokolle, bei denen zwischen der Unterstützung durch die künstliche Intelligenz und der autonomen Entscheidungsfindung abgewechselt wird. In klinischen Diagnosestudien konnten die Auswirkungen der Übertragung von Verzerrungen von 17 % auf 6 % reduziert werden.

Auswirkungen auf die Gesellschaft

Unternehmen, die KI-Systeme implementieren, ohne die Wechselwirkungen mit menschlichen Voreingenommenheiten zu berücksichtigen, sehen sich erhöhten rechtlichen und betrieblichen Risiken ausgesetzt.

Eine Analyse von Diskriminierungsfällen im Bereich der Beschäftigung zeigt, dass KI-gestützte Einstellungsverfahren die Erfolgsquote der Kläger um 28 Prozent im Vergleich zu herkömmlichen, von Menschen geführten Fällen erhöhen, da die Spuren der algorithmischen Entscheidungen klarere Beweise für ungleiche Auswirkungen liefern.

Auf dem Weg zu einer künstlichen Intelligenz, die Freiheit und Effizienz respektiert

Der Zusammenhang zwischen algorithmischen Verzerrungen und der Einschränkung der Wahlfreiheit macht es erforderlich, dass wir die technologische Entwicklung aus der Perspektive der individuellen Verantwortung und der Sicherung der Markteffizienz neu überdenken. Es muss sichergestellt werden, dass die KI ein Instrument wird, das die Möglichkeiten erweitert und sie nicht einschränkt.

Zu den vielversprechenden Richtungen gehören:

  • Marktlösungen, die Anreize für die Entwicklung von unvoreingenommenen Algorithmen bieten
  • Größere Transparenz bei automatisierten Entscheidungsprozessen
  • Deregulierung zur Förderung des Wettbewerbs zwischen verschiedenen technologischen Lösungen

Nur durch eine verantwortungsvolle Selbstregulierung der Industrie in Verbindung mit der Wahlfreiheit der Nutzer können wir sicherstellen, dass die technologische Innovation auch weiterhin ein Motor für Wohlstand und Chancen für all diejenigen ist, die bereit sind, ihre Fähigkeiten unter Beweis zu stellen.

Fabio Lauria

CEO & Gründer | Electe

Als CEO von Electe helfe ich KMU, datengestützte Entscheidungen zu treffen. Ich schreibe über künstliche Intelligenz in der Geschäftswelt.

Am beliebtesten
Melden Sie sich an, um die neuesten Nachrichten zu erhalten

Erhalten Sie wöchentlich Neuigkeiten und Einblicke in Ihren Posteingang
. Nicht verpassen!

Danke schön! Ihre Einreichung ist eingegangen!
Hoppla! Beim Absenden des Formulars ist ein Fehler aufgetreten.