Text: Medien.Daten
3.12 Ansätze gegen den Digital Bias
Es gibt mittlerweile Methoden, die versuchen, die computerbasierte Diskriminierung zu verhindern. Diese Methoden lassen sich in technische Verfahren und organisatorische Herangehensweisen unterteilen.
3.12.1 Technische Methoden im Maschinellen Lernen
Im Bereich der technischen Ansätze gibt es derweil einige Verfahren, die zur Verhinderung von algorithmischer Diskriminierung eingesetzt werden. Nachfolgend sollen zwei Beispiele aufgeführt werden, wie technische Modellierungen diesbezüglich aussehen könnten:
- Eine Methode technischer Art ist z.B. die Bereinigung von Daten mit Hilfe von Pre-processing Discrimination Prevention (Hagendorff 2019). D.h., dass Trainingsdaten gezielt ausgebessert werden, sodass Trainings für Algorithmen an bereinigten Daten bereitgestellt werden, um diese Diskriminierung möglichst zu verhindern. Am Beispiel des oben benannten Vorgehens der Bewerbungsprozesse würde der ursprünglich verwendete Lerndatensatz, der mehr männliche Bewerber beinhaltet, daraufhin geprüft und gezielt geändert werden.
- Eine weitere technische Methode nennt sich die Counterfactual Fairness (Joos/Meding 2022). Diese Methode beschreibt das Verändern von Merkmalen von z.B. Personen, um Diskriminierung zu verhindern. Hier wird bspw. geprüft, ob bei dem Geschlecht ›Frau‹ auch gleiche Ergebnisse erzielt werden wie bei dem Geschlecht ›Mann‹. Bleibt das Ergebnis gleich, so wird der Algorithmus als fair eingestuft.
3.12.2 Organisatorische Methoden im Maschinellen Lernen
Neben den mathematischen Verfahren gibt es auch organisatorische Entwicklungen als Ansätze gegen algorithmische Diskriminierung. In diesem Bereich gibt es deutlich weniger Methoden als bei den technischen. Auch hier werden beispielhaft nachfolgend zwei Ansätze vorgestellt:
- Eine antidiskriminierende Idee besteht darin, soziale Gerechtigkeit dadurch zu befördern, dass die Speicherung von Daten durch Organisationen gar nicht erst vorgenommen werden darf. D.h., die Speicherung personenbezogener Daten, die sensible Informationen über bspw. das Geschlecht, sexuelle Orientierung, Gesundheitszustand usw. preisgeben, könnte untersagt werden, sodass diese Informationen somit nicht für weitere datenbasierte Analysen verwendet werden können. Das Problem bei dieser Verfahrensweise ist jedoch, dass weiterhin die Möglichkeit der Diskriminierung besteht, die durch nicht sensible Informationen hervorgerufen werden kann (vgl. Hagendorff 2019).
- Ein anderer Vorschlag gestaltet sich durch das Heranziehen von Behörden oder Non-Government-Organisationen (Nichtregierungsorganisationen; NGOs) mit der Aufgabe, die Datenüberwachung bzw. Prüfung vorzunehmen. Bei diesem Vorgehen müsste noch differenziert werden, ob die herangezogenen Institutionen die Aufgabe haben, Diskriminierung nur aufzudecken oder auch präventiv tätig zu werden, um Bias gar nicht erst entstehen zu lassen. Diese Aufgaben würden ausgeprägte technische Expertise erfordern (vgl. Ebd.).
Literatur- und Web-Tipp
Das Fraunhofer-Institut hat einen Prüfkatalog erstellt, der einen Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz bietet. Dieser richtet sich an Entwickelnde und Prüfende und gibt einen Überblick über relevante Kriterien auch für Interessierte, die sich vertiefend in das Thema einlesen möchten:
- Frauenhofer IAIS (2021). Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz. KI-Prüfkatalog. https://www.iais.fraunhofer.de/de/forschung/kuenstliche-intelligenz/ki-pruefkatalog.html
[letzter Zugriff: 28.02.2025].
Dennoch bleibt festzuhalten, dass es keine universellen mathematischen oder organisatorischen Kriterien geben wird, um Diskriminierung durch Maschinelles Lernen zu verhindern. Faires Handeln muss situationsspezifisch und an Kontext und Zeit angepasst werden, um sozial gerechtes Handeln umzusetzen. Daher bleibt es ein wichtiges Anliegen für Programmierer*innen oder Softwareentwickler*innen, ihre Entwicklungen und Programmierungen an sozialen und kulturellen Kontexten festzumachen und diese als Grundlage für ihre Entscheidungen zu nehmen. Statistik allein wird keine Lösung bieten, um Diskriminierung zu verhindern. D.h., an dieser Stelle müssen mathematische und ethisch-soziale Kompetenzen gleichermaßen berücksichtigt werden (vgl. Hagendorff 2019).
Take Home Message
Es gibt technische Methoden, die z.B. Datensätze bereinigen, um eine Reproduktion von datenbasierter Diskriminierung zu verhindern sowie organisatorische Methoden, bei denen z.B. sensible Daten gar nicht erst gespeichert werden. Dennoch gibt es keine universelle Formel (weder mathematisch noch organisatorisch), um Diskriminierung zu verhindern. In diesem Zusammenhang muss immer der soziale und kulturelle Kontext bedacht werden.