Einige jüngsten Forschungen haben ein interessantes Phänomen hervorgehoben: Es gibt eine "wechselseitige" Beziehung zwischen den Verzerrungen in Modellen der künstlichen Intelligenz und denen des menschlichen Denkens.
Diese Wechselwirkung schafft einen Mechanismus, der dazu neigt kognitive Verzerrungen in beide Richtungen zu verstärken.
Diese Forschung zeigt, dass KI-Systeme nicht nur menschliche Voreingenommenheit aus den Trainingsdaten übernehmen, sondern diese bei der Implementierung noch verstärken können, was wiederum die Entscheidungsprozesse der Menschen beeinflusst. Dadurch entsteht ein Kreislauf, der, wenn er nicht richtig gehandhabt wird, das Risiko birgt, dass die anfänglichen Voreingenommenheiten nach und nach verstärkt werden.
Dieses Phänomen ist besonders in wichtigen Sektoren wie z. B:
In diesen Bereichen können sich kleine anfängliche Verzerrungen durch wiederholte Interaktionen zwischen menschlichen Bedienern und automatisierten Systemen verstärken und sich allmählich zu signifikante Unterschiede in den Ergebnissen.
Der menschliche Verstand verwendet naturgemäß "Denkabkürzungen", die zu systematischen Fehlern in unseren Urteilen führen können. Die Theorie des "doppelten Denkens" unterscheidet zwischen:
Im medizinischen Bereich beispielsweise neigen Ärzte dazu, ersten Hypothesen zu viel Gewicht beizumessen und gegenteilige Beweise zu vernachlässigen. Dieses als "Confirmation Bias" bezeichnete Phänomen wird von KI-Systemen, die auf historischen Diagnosedaten trainiert wurden, wiederholt und verstärkt.
Modelle des maschinellen Lernens führen hauptsächlich über drei Kanäle zu Verzerrungen:
Eine 2024 UCL-Studie zeigte, dass Gesichtserkennungssysteme, die auf emotionale Beurteilungen von Menschen trainiert wurden, eine 4,7-prozentige Tendenz zur Einstufung von Gesichtern als "traurig" vererben und diese Tendenz bei nachfolgenden Interaktionen mit Nutzern auf 11,3 Prozent verstärken.
Die Datenanalyse von Rekrutierungsplattformen zeigt, dass jeder Zyklus der Zusammenarbeit zwischen Mensch und Algorithmus die geschlechtsspezifische Voreingenommenheit durch sich gegenseitig verstärkende Feedback-Mechanismen um 8-14 % erhöht.
Wenn Personalverantwortliche von der KI Listen von Bewerbern erhalten, die bereits von historischen Vorurteilen beeinflusst sind, verstärken ihre nachfolgenden Interaktionen (z. B. die Auswahl von Interviewfragen oder Leistungsbewertungen) die verzerrten Darstellungen des Modells.
Eine Meta-Analyse von 47 Studien aus dem Jahr 2025 ergab, dass drei Runden der Zusammenarbeit zwischen Mensch und IKT die demografischen Ungleichheiten in Bereichen wie Gesundheitsversorgung, Kreditvergabe und Bildung um das 1,7- bis 2,3-fache vergrößert haben.
Der von Dong et al. (2024) vorgeschlagene Rahmen für die Messung von Verzerrungen ermöglicht die Erkennung von Verzerrungen ohne die Notwendigkeit von Kennzeichnungen der "absoluten Wahrheit", indem Diskrepanzen in den Entscheidungsmustern zwischen geschützten Gruppen analysiert werden.
Die von UCL-Forschern entwickelte Technik des "algorithmischen Spiegels" verringerte die geschlechtsspezifische Voreingenommenheit bei Beförderungsentscheidungen um 41 %, indem sie Managern zeigte, wie ihre historischen Entscheidungen aussehen würden, wenn sie von einem KI-System getroffen worden wären.
Besonders vielversprechend sind Trainingsprotokolle, bei denen zwischen der Unterstützung durch die künstliche Intelligenz und der autonomen Entscheidungsfindung abgewechselt wird. In klinischen Diagnosestudien konnten die Auswirkungen der Übertragung von Verzerrungen von 17 % auf 6 % reduziert werden.
Unternehmen, die KI-Systeme implementieren, ohne die Wechselwirkungen mit menschlichen Voreingenommenheiten zu berücksichtigen, sehen sich erhöhten rechtlichen und betrieblichen Risiken ausgesetzt.
Eine Analyse von Diskriminierungsfällen im Bereich der Beschäftigung zeigt, dass KI-gestützte Einstellungsverfahren die Erfolgsquote der Kläger um 28 Prozent im Vergleich zu herkömmlichen, von Menschen geführten Fällen erhöhen, da die Spuren der algorithmischen Entscheidungen klarere Beweise für ungleiche Auswirkungen liefern.
Der Zusammenhang zwischen algorithmischen Verzerrungen und der Einschränkung der Wahlfreiheit macht es erforderlich, dass wir die technologische Entwicklung aus der Perspektive der individuellen Verantwortung und der Sicherung der Markteffizienz neu überdenken. Es muss sichergestellt werden, dass die KI ein Instrument wird, das die Möglichkeiten erweitert und sie nicht einschränkt.
Zu den vielversprechenden Richtungen gehören:
Nur durch eine verantwortungsvolle Selbstregulierung der Industrie in Verbindung mit der Wahlfreiheit der Nutzer können wir sicherstellen, dass die technologische Innovation auch weiterhin ein Motor für Wohlstand und Chancen für all diejenigen ist, die bereit sind, ihre Fähigkeiten unter Beweis zu stellen.