Text: Medien.Daten
3.10 Ethische Aspekte und Gefahren von KI
3.10.1 Gefahren von Deep Learning
Die Verwendung von Texten in Sprachmodellen kann versteckte Gefahren mit sich bringen. Hier können auch Vorurteile reproduziert werden, die in einer Gesellschaft kursieren (siehe Einheit Medien.Identität). So assoziierten beispielsweise frühe Texte von GPT-3 (Generative Pre-Trained Transformer-3) Berufe mit höherem Bildungsniveau vermehrt mit Männern als mit Frauen. GPT-3 ist das Sprachmodell, das 2020 von OpenAI veröffentlicht wurde und 2022 dann für alle Interessierten einen öffentlichen Zugang ermöglicht hat. ChatGPT ist hingegen eine Anwendung davon, die auf die Fähigkeit des Modells zur Generierung von menschenähnlichem Text für Chatanwendungen abzielt. In Bezug auf die Verwendung von Stimmen kann die Macht der Künstlichen Intelligenz schnell für unlautere Zwecke missbraucht werden. Da Stimmmuster einzigartig sind, gelten sie in unserer Gesellschaft als weit verbreitetes Authentifizierungsmittel. Sehr häufig dienen sie auch als Beweismittel in Rechtsfällen. Mit der Möglichkeit, Stimmen identisch nachzuahmen (im Rahmen der Deep-Fake-Methode), könnten demnach Beweisstücke weitreichend manipuliert oder Sicherheitsvorkehrungen umgangen werden. Auch werden zunehmend Fälle von sogenannten ›Enkeltricks‹ bekannt, in denen Kriminelle sich als die Enkel*innen von Personen ausgeben und dafür ihre Stimme mit Hilfe Künstlicher Intelligenz exakt klonen können (vgl. Beuth 2023). Betrachtet man das Beispiel von Bildern, haben Personen des öffentlichen Lebens – wie andere auch – Rechte am eigenen Bild und können die kommerzielle Nutzung ihrer Bilder damit kontrollieren. Ähnlich ist es auch bei Charakteren oder Marken mit hohem Wiedererkennungswert, für die Urheberrechte oder Warenzeichen bestehen. Diese Bilder dürfen ohne Genehmigung des*r Rechteinhaber*in nicht verwendet werden. Wie KI-generierte Werke in Bezug auf das Urheberrecht behandelt werden, ist nicht abschließend geklärt. Das kann je nach Land und länderspezifischen Gesetzmäßigkeiten variieren.
3.10.2 Algorithmische Diskriminierung durch Digital Bias
Künstliche Intelligenz kann neben den bereits benannten Vorteilen in der Prozessoptimierung auch Herausforderungen durch diskriminierende Verhaltensweisen mit sich bringen. Algorithmen lernen von Daten, die nicht zwangsläufig vorurteilsfrei sind. Dies kann bewusst oder unbewusst passieren. Man spricht dann von Diskriminierung, wenn Entscheidungen von Merkmalen wie Geschlecht, Behinderung, Aussehen, Alter, Schwangerschaft oder Herkunft abhängig gemacht werden und dann entscheidend Einfluss auf z.B. die Arbeits-, Kreditvergabe o.Ä. nehmen (vgl. Hagendorff 2019; siehe auch Einheit Medien.Identität). In Bezug auf die Datenverarbeitung und Diskriminierung wird in zwei Bereiche unterschieden:
Die direkte Diskriminierung beschreibt Entscheidungen, die unmittelbar von sensiblen Informationen einer Person getroffen werden, z.B. von Geschlecht, Herkunft oder sexueller Orientierung.
Die indirekte Diskriminierung vollzieht sich anhand nicht sensibler Daten (z.B. der Postleitzahl), von denen aber auf sensible Daten indirekt geschlossen werden kann (durch die Postleitzahl kann z.B. auf das Viertel/den Stadtteil geschlossen werden, um so die soziale Herkunft abzuleiten).
Wenn Benachteiligungen in Daten vorhanden sind, lernen KI-Anwendungen diese und reproduzieren sie. Wenn Vorurteile in Datensätzen vorhanden sind oder marginalisierte Personengruppen unterrepräsentiert sind, spricht man von Bias (Verzerrung) (vgl. Poretschkin et al. 2021). Wie die Welt oder die Gesellschaft wahrgenommen wird, hängt oft von dem ab, was gelernt wird. Das ist geprägt durch die individuellen, sozialen, kulturellen oder ökonomischen Hintergründe. Diese wiederum sind geprägt von gesellschaftlichen Normen, familiärer Erziehung und Kulturangeboten sowie durch Einflüsse von Medien. Man unterscheidet daher mehrere Formen von Bias, auf denen Vorurteile basieren.
Menschen tendieren z.B. dazu, Informationen als vertrauenswürdig einzustufen, die ihrer bisherigen Meinung entsprechen oder ihr vorhandenes Wissen bestätigen. Diese Verhaltensweisen nennt man ›kognitiven Bias‹ (vgl. Poretschkin et al. 2021). Auf Grund der großen Datenmengen, die durch die tägliche Nutzung von Apps, dem Internet o.Ä. produziert und zur Verfügung gestellt werden, werden auch Meinungen oder Ansichten weitergegeben, die weitere Entscheidungen beeinflussen. Deshalb geht man davon aus, dass in Daten immer Bias existiert.
Wenn es zu Fehlern in der Datenerhebung kommt (z.B. durch fehlerhafte Verteilungen von Datenpunkten), kann dies zu fehlerhaften Ergebnissen in Untersuchungen führen. Beispielsweise kann die Art und Weise, wie ein Fragebogen aufgebaut ist, die Antwortangaben beeinflussen. Dann spricht man von einem ›statistischen Bias‹ (vgl. Poretschkin et al. 2021).
Wenn Algorithmen von einer gelernten Annahme aus vorhandenen Daten auf eine Verallgemeinerung schließen, nennt man das ›induktiven Bias‹ (vgl. Poretschkin et al. 2021). D.h., diese Daten können nicht frei von diskriminierenden Annahmen sein, da diese bereits in den Daten vorhanden sind. Als Beispiel kann hier aufgeführt werden, dass ursprünglich vermehrt Männer als Frauen in gewissen Berufen eingestellt wurden oder eine Beförderung erhalten haben und ein Algorithmus ausgehend von dieser Annahme eine verallgemeinernde Annahme bildet. Dann müsste man den Algorithmus explizit erlernen lassen, ob eine solche Annahme weiterhin legitim ist (vgl. Balkow/ Eckardt 2019).