Künstliche Intelligenz und Rassismus bringt man nicht sofort zusammen, denn häufig wird davon ausgegangen, dass die Algorithmen objektiv wären. Dem ist jedoch nicht so – sie übernehmen die Vorurteile des Menschen. Man könnte quasi sagen, die rassistischen Strukturen in unserer Gesellschaft werden in die Algorithmen kopiert – deshalb kann auch KI rassistisch, sexistisch oder anderweitig diskriminierend sein.
Was ist KI?
In der Regel beschreibt künstliche Intelligenz einen Bereich der Informatik, der sich mit Methoden beschäftigt, die neben maschinellem Lernen auch intelligentes Verhalten durch selbst-optimierende Algorithmen automatisieren. In Computern werden Entscheidungsstrukturen des Menschen nachgebildet, damit diese eigenständig Probleme lösen. Sprachassistenten wie Alexa und Siri, der Google Übersetzer oder die Gesichtserkennung auf unseren Smartphones sind alltagsnahe Beispiele für KI. Auch in der Sicherheitstechnik, Kriminalistik und Forensik wird diese Technologie eingesetzt, um Personen identifizieren und verifizieren zu können.
Wie zuvor festgestellt, ist die Annahme KI sei frei von menschlichen Gesinnungen, ein Trugschluss. Es häufen sich Fälle, in denen künstliche Intelligenzen, Menschen mit Migrationshintergrund sowie People of Color benachteiligten. Beispielsweise musste Microsoft seinen Chatbot Tay 2016 abschalten, nachdem dieser begonnen hatte, rassistische und teilweise extremistische Inhalte zu twittern. Aber auch das Chatprogramm des Meta-Konzerns „BlenderBot 3“, das Künstliche Intelligenz nutzen soll, um Gespräche zu simulieren und dabei Fragen von Nutzern durch Live-Recherche in Onlinequellen wahrheitsgemäß zu beantworten, wird seiner Aufgabe nicht gerecht. Tests des Handelsblatts in den USA zeigen: Das Programm verbreitete Verschwörungsmythen, antisemitische Aussagen und hielt Angela Merkel für die amtierende Bundeskanzlerin Deutschlands.
Diese Probleme sind lange bekannt: bereits im Jahr 2015 befand Google sich in Rechtfertigungsnot, da sein Algorithmus Afroamerikaner*innen unerhörterweise als Gorillas ausmachte.
2018 wurde dem Programmierer Oliver A. 35 Jahre alt, Bruttoverdienst 5.200 Euro und seiner Lebensgefährtin Stephanie F., Krankenschwester, Bruttoverdienst 2.200 Euro, die Wohnungssuche erheblich erschwert. Grund dafür: rassistische KI bei der Kreditauskunft. Der unterirdische Kredit-Score für Oliver A. kam durch seinen Nachnamen zustande. Der Klang nämlich arabisch. Die Entscheidungssoftware der Kreditauskunftei stufte Oliver A. daher als Migranten ein. Der Faktor „Migrant“ wiederum wurde vom Kredit-Score stark negativ gewichtet, deshalb die schlechte Kreditnote und die Ablehnung durch den Vermieter.
2020 berichtete Datenjournalist Nicolas Kayser-Bril zudem, dass die Google-Suche ein Fieberthermometer in einer weißen Hand als „elektronisches Gerät“ erkannt hat, während es in der Hand eines Afroamerikaners als Waffe klassifiziert wurde.
Auch Sexismus wird durch die Algorithmen teilweise reproduziert.
Die eigentliche Aufgabe der Algorithmen im Personalwesen war, Bewerbungen nach ihrer Passgenauigkeit vorzusortieren, sie fairer zu beurteilen und eventuell beiläufig auch für mehr Diversität zu sorgen. Bei dem Konzern Amazon passierte jedoch das Gegenteil. Dort hatte man die Bewerbungen von erfolgreich eingestellten Mitarbeitenden als KI-Trainingsgrundlage genutzt. Das Problem: Es wurden vor allem Männer eingestellt, der Algorithmus hielt „männlich“ also für ein positives Einstellungskriterium.
Das Diskriminierungspotential, das sich in der Automatisierung dieser Prozesse widerspiegelt, hat überraschenderweise auch einen positiven Effekt: es macht die darunter verborgenen Diskriminierungsformen- und -strukturen sichtbar. Gleichzeitig aber muss der Wille zur Beseitigung existieren. Es bedarf dringend ein größeres Bewusstsein für datenbasierte Diskriminierung und mehr Diversität in den Entwicklerteams. Darüber hinaus sollte insbesondere die Anwendung von KI im Alltag in allen Dimensionen, auch in die breite Öffentlichkeit, getragen werden.