Text: Medien.Identität
5.8 Datenschutz, Big Data und Tracking
Eine weitere Herausforderung besteht darin, dass die Identität von Menschen durch ihr Surfverhalten quasi »gläsern« wird. Bestimmt hatten die meisten von Ihnen schon einmal ein ungutes Gefühl beim Bezahlen im Internet. Spätestens bei der Eingabe der Kreditkartendaten stellt sich die Frage, wer mitliest und die eigenen Daten ausspioniert. Der Diebstahl von Daten und Identität geschieht meist unbemerkt. Viele Nutzer*innen sind sich der Problematik von Datenkraken kaum bewusst und argumentieren, dass sie nichts zu verbergen hätten.
Abstinenz von Medien ist allerdings ebenfalls keine Lösung: Zorn (2015) stellt heraus, dass
»man dem Einfluss digitaler Medien auf die eigene Identitätsbildung nicht entgehen kann, wenn man sich nicht selbst von der Teilhabe an der Gesellschaft ausschließen will. Auch die Abstinenz von Diensten sei keine Lösung, da sich diese Menschen abschnitten von Partizipations-, Informations- und Bildungsmöglichkeiten« (Zorn 2015: 23).
Gleichzeitig müssen wir uns der Risiken bewusst sein: In Anlehnung an Watzlawicks Ausspruch, man könne nicht nicht kommunizieren, könnte man in Bezug auf Identität ableiten: In der Kultur der Digitalität kann man nicht nicht Spuren hinterlassen. Das Internet vergisst nichts.
Stop and Think
Wie gehen Sie mit Cookie-Anfragen um?
Als Ausweg werden häufig Anonymisierungstools vorgeschlagen. Viele fragen sich jedoch, ob sie nicht paradoxerweise auf Grund der Nutzung eines Anonymisierungstools gerade besonders auffällig würden: »trackt« der eingesetzte Tracker-Blocker gegebenenfalls das Surfverhalten im Netz?
»Wozu noch digitale Selbstverteidigung, wenn Privatheit im digitalen Raum ohnehin nicht mehr zu halten ist?« (Gapski 2015: 71)
Wer bspw. Alexa nutzt, willigt über die Akzeptanz der Nutzungsbedingungen dazu ein, dass ein Nutzer*innenprofil zwecks Bereitstellung interessenbasierter Werbung erstellt wird. Außerdem erlaubt man der KI die »Systeme zur Spracherkennung und zum natürlichen Sprachverständnis durch maschinelles Lernen zu trainieren« (Amazon, o. J.). Die manuelle menschliche Überprüfung für Sprachaufzeichnungen kann jedoch auch zum Schutz der Privatsphäre unterbunden werden, indem man die Datenschutzeinstellungen ändert. Schönherr et al. (2020) analysierten in ihrer Studie zufällige Trigger-Worte, bei denen Laute einen Voice Assistant (wie z.B. Alexa) unbeabsichtigt auslösen und kamen auf ca. 735 unbeabsichtigte Aktivierungen in Englisch und ca. 180 in Deutsch (Eckert 2020). In ihrem sechsmonatigen Selbstversuch fand Reporterin Eckert heraus, dass über Aktivitätsprotokolle von Alexa, Siri & Co neben Rückschlüssen auf die Einrichtung in ihrer Wohnung auch Schlüsse auf Urlaubszeiten und über ihren Tagesrhythmus und Routinen (Schlafenszeiten etc.) möglich waren. Der hieraus abzuleitende Tipp besteht in einer genauen Auseinandersetzung mit dem Kleingedruckten der Datenschutz- und Privatsphäreeinstellungen.
Video: »Smart Speaker: Wobei Alexa, Siri & Co. heimlich mithören«
Stop and Think
Wie fühlen Sie sich, wenn sie sich die »Gläsernheit« Ihrer Identität bewusst machen? Haben Sie Alexa oder Siri zuhause?
Viele Social-Media-Plattformen sammeln persönliche Daten, wie z.B. die Nutzungsdauer bestimmter Inhalte, nicht verschlüsselte Inhalte einer Nachricht, die nationale Identität und bei Einverständnis auch Standort, Telefonnummer und Kontakte, Alter und Zahlungsinformationen. Nutzer*innen geben ihre Identitäten preis – z.T. wissentlich, z. T. unabsichtlich und unwissentlich. Da Social-Media-Plattformen kommerziell agieren, erhalten Konzepte wie Überwachung und Aufmerksamkeit ökonomische Bedeutung. Über Suchbegriffe und Klickverhalten wird mittels Cookies algorithmengesteuert ein digitales Identitätsprofil erstellt, das zielgerichtete Werbung ermöglicht, inklusive Weiterverkauf gesammelter Daten an Dritte. Mit der Einwilligung zu Cookies sollte entsprechend zurückhaltend umgegangen werden. Sofern Sie in Bildungskontexten unterwegs sind, sollten Sie Ihre Teilnehmenden auf diese Gefahr im Netz explizit hinweisen (siehe Einheit Medien.Didaktik).
Ethisch problematisch wird Überwachung spätestens dann, wenn das gesellschaftliche Wertegefüge tangiert wird und bspw. aus der Kombination von Daten die »Kreditwürdigkeit oder Arbeitsplatztauglichkeit von Individuen errechnet« würde (Gapski 2015: 72).
Dabei erzeugt der Einsatz von KI mitunter das Gefühl einer Scheinobjektivität, da sogenannter »menschlicher Bias« (menschliche Einflussnahme durch Vorurteile) vermeintlich ausgeschaltet sei. Dies widerspricht jedoch der Erkenntnis, dass auch die Programmierung der KI menschengesteuert und damit Bias-anfällig ist. Außerdem geschieht die Speisung der KI mit Daten über Menschen, und damit werden digital gestützte Verfahren ebenfalls pseudoobjektiv: Die vermeintliche Überlegenheit von Career Bots gegenüber Menschen – denen auf Grund von Vorurteilen ggf. unterstellt wird, dass sie nicht wertfrei urteilen könnten – wird durch die ›Menschengemachtheit‹ der algorithmengesteuerten Handlungsvorschriften (Knaus 2018) in Frage gestellt. Konkret übertragen auf den Arbeitsmarkt könnte dies möglicherweise bedeuten, dass eine Person, die sich überdurchschnittlich lange in der Kindererziehung engagiert hat, von einer Recruiting-KI aussortiert wird, da sie nicht die Kriterien der »Durchschnittselternschaft« erfüllt. Zwar können Mitarbeitende in den Personalabteilungen die Identität von Bewerber*innen nicht vorurteilsfrei bewerten, aber eine computergestützte Anwendung kann dies ebenso wenig (siehe Einheit Medien.Daten).
Kernpunkt beim Data Tracking ist, dass die analysierten, z.T. öffentlichen Daten keinen direkten, kausalen Wirkungsbezug zur Zielaussage haben müssen. Es gebe keine belanglosen Daten mehr – so die provokative Aussage von Gapski (2015): Alle Daten seien potenziell relevant. Weber (2018) verweist auf die über Big Data entstandene Option, riesige Datenmengen zu sammeln, zu durchsuchen und neue Querbezüge herstellen zu können, die »von staatlichen Behörden genauso wie von Konzernen (Google, Facebook, Twitter u.v.a.) genutzt« würden – u.a. um neue Informationen, Märkte und Bedürfnisse zu entdecken oder gar Entscheidungshilfen zu gewinnen oder Entwicklungen vorherzusagen zu können. Bezogen auf den eigenen Schutz der Identität bedeutet dies, dass wir heute noch gar nicht vorhersagen können, ob und inwiefern unsere persönlichen Datenspuren möglicherweise später einmal zusammengeführt werden (siehe Einheit Medien.Daten). Als besonders eindrucksvolles Beispiel persönlicher Vorsicht ist die Aussage einer erwachsenen Seminarteilnehmerin in Erinnerung geblieben, die in der Zusammenarbeit mit ihrer chinesischen Teamkollegin keine Kritik an China auf PowerPoint-Folien bringen wollte – mit der Begründung, nicht die Jobchancen ihrer Enkel*innen beeinträchtigen zu wollen.
»Milliarden vernetzte Sensoren, stetig fließende Datenströme, verteilte Hochleistungsprozessoren und selbstlernende Algorithmen – das Zusammenspiel dieser Technologien mit der gesellschaftlichen Kommunikation führt zu dem, was in der mediensoziologischen Tradition als ›Medienkatastrophe‹ bezeichnet werden kann: Die neuen kommunikativen Möglichkeiten überfordern die bisherigen Strukturen der Gesellschaft.« (Baecker 2013: 158; Gapski 2015: 63)
Insbesondere die Intransparenz der Algorithmen ist hierbei kritisch zu sehen: »Dabei ist zum einen nicht immer ganz klar, was ein algorithmisches System gelernt hat, und zum anderen, wie es zu einem bestimmten Ergebnis gekommen ist (vgl. Manovich 2017: 4). ChatGPT-Erfinder und Geschäftsführer von OpenAI, Sam Altman, geht sogar so weit, die Risiken mit Pandemien oder Atomkriegen zu vergleichen. Menschen könnten durch die technologiegestützte Verbreitung von Falschinformationen desinformiert sein und abhängig von Medien werden. Unterzeichner einer KI-kritischen Stellungnahme sind auch Demis Hassabis, Google-Schwesterfirma Deep Mind, und Geoffrey Hinton (KI-Forscher, Universität Toronto). Dieser kündigte im Jahr 2023 bei Google, um Risiken von KI offen thematisieren zu können. Big Data sei aber nicht nur ein »Medium der Prämediation, sondern auch der Massenüberwachung in der Demokratie« (Weber 2018: 91).
Häufig sei gerade Jugendlichen die Brisanz und Sensibilität von Self-Tracking, z.B. aus dem Freizeitbereich für den Vergleich sportlicher und körperlicher Leistungen mit Durchschnittswerten nicht bewusst: Sie hätten »die Vorstellung, dass Self-Tracking-Technologien besser und präziser funktionieren, wenn sie über möglichst viele persönliche Daten verfügen«. Hier zeigt sich der Trugschluss im Hinblick auf »Identität«. Die aus der medialen Überwachung entstehende Überwachungsgesellschaft ist mehr als ambivalent: Weber (2018) spitzt die Ambiguität der Überwachung zu, wenn sie einerseits feststellt, Big Data (Mining) ermögliche Analysen, die vom Trendmining bis zum Riot Forecasting und Targeted Killing genutzt werden könnten; andererseits ausführt, so sollten nicht nur neue Bedürfnisse und Märkte produziert und bedient, sondern auch politische, ökologische oder ökonomische Risiken minimiert werden (Weber 2018). Dass die Möglichkeit, Daten großflächig abzugreifen, zu speichern und auszuwerten, auch als geradezu perfekte staatliche Überwachungsmethode genutzt werden könne, sei spätestens mit den Snowden-Enthüllungen eine Binsenweisheit geworden. Andererseits arbeitet Weber (2018) auch eine Dimension der Achtsamkeit und des »Umsorgtwerdens« im Kontext medialer Überwachung heraus, etwa bei der Überwachung von Kleinkindern oder Kranken, denn Teilnahme – sowohl an der analogen als auch digitalen Gesellschaft – ist an Wahrgenommen-Werden gekoppelt. Medien ermöglichen Kommunikation und Wahrgenommen-Werden und sind mithin wichtig für die Identitätsbildung.
Stellt man sich die Frage, was medialer Überwachung zum Schutz der eigenen Identität entgegenzusetzen sei, ist das Ablehnen nicht notwendiger Cookies und die bedachte Auswahl von Messengerdiensten und Suchmaschinen zu empfehlen. Auf Grund eines sozialen Erwartungsdrucks – bspw. über den Messenger WhatsApp erreichbar zu sein – setzt man sich, trotz der Kenntnis über die Existenz datenschutztechnisch besserer Alternativen, häufig über anders lautende Empfehlungen hinweg. Dennoch existieren Tools mit unterschiedlicher »Sicherheit« im Netz, sodass eine kritisch-reflexive Nutzung auch hier angezeigt ist.
Es ist festzuhalten, dass Mediennutzung und der Einsatz von KI kritisch überprüft werden sollte. Auch vor einer unreflektierten Weiterentwicklung und Forschung über KI oder dessen Glorifizierung ist zu warnen, da die Auswirkungen der »Kultur der Digitalität« (Stalder 2016) noch gar nicht zu überblicken sind.
»Zudem können nicht nur solche Systeme, die im Sinne der KI-Verordnung als hochriskant zu klassifizieren wären, ethisch bedenklich sein. Auch KI-Systeme, die im Sinne der KI-Verordnung ein geringes Risiko tragen, können ethisch höchst bedenklich sein und sollten nicht voreilig und endgültig als unbedenklich eingestuft werden.« (Vogel-Adham et al. 2023: 10)
Letztlich obliegt es der Medienkompetenz jeder*s Einzelnen, aber gleichzeitig auch der gesellschaftlichen demokratischen Gesamtverantwortung, die ethischen Bedenken ernst zu nehmen und ethisch verantwortungsvoll zu agieren.
Take Home Messages
- Über »Datenkraken« kann es zu Identitätsdiebstahl kommen.
- Digitale Identitäten könnten Auswirkungen auf die Offlinerealität haben: z.B. beim Personalrecruiting.
Aufgaben
Bearbeiten Sie die folgenden Aufgaben: