Text: Medien.Identität

5.7 Risiken medialer Desinformation und soziale Risiken

Neben den Risiken des Internets beim aktiven Handeln gibt es, wie im ersten Teil der Einheit bereits angedeutet, auch Risiken beim Rezipieren von medialen Inhalten (siehe Einheit Medien.Rezeption), wie z.B. Desinformation über Fake News, Extremismus, Verschwörungstheorien etc. Laut der JIM-Studie 2023 des Medienpädagogischen Forschungsverbunds Südwest mit 1200 Befragten sind bspw. laut eigener Einschätzung mehr als der Hälfte der Befragten (58 %) im Internet Fake News begegnet. Der steigende Prozentsatz im Vergleich zu den Vorjahren könnte allerdings auch auf ein gestiegenes Bewusstsein für Falschnachrichten zurückzuführen sein. Für Sie als Lesende bedeutet das noch einmal mehr, dass Angaben im Netz im Hinblick auf Seriosität der Quelle zu hinterfragen sind – und das umso mehr in Bildungskontexten. Wenn Sie als Lehrende*r tätig sind, gilt es, Teilnehmende dafür zu sensibilisieren bzw. darin zu schulen, Fake News von echten Nachrichten zu unterscheiden (siehe Einheit Medien.Rezeption). Auf technische Möglichkeiten der Fotomontage und das Heraustrennen von Bildern aus ihrem ursprünglichen Kontext ist hinzuweisen und Reflexion hierüber anzuregen (siehe Einheit Medien.Didaktik).

Wenn die Auswahl von Medieninhalten nach den eigenen Interessen zwar einerseits hilfreich ist, um sich in der Fülle der medialen Möglichkeiten zurechtzufinden, so sind andererseits die damit einhergehenden Selective-Exposure-Effekte für die politische Meinungsbildung natürlich problematisch (s.o.; vgl. Wulf et al. 2023). Gemeint ist, dass Personen, die nur Medieninhalte auswählen, die ihrer eigenen politischen Position entsprechen, vornehmlich die Inhalte rezipieren, die ihre eigene Meinung bestätigen. Dadurch vermeiden sie die Kenntnisnahme von Gegenargumenten (Confirmation Bias) (vgl. Wulf et al. 2023; siehe Einheit Medien.Gesellschaft). Dies kann zu Radikalisierung führen, u.a. weil die Glaubwürdigkeit von Quellen als besonders hoch gewertet wird, wenn sie aus der eigenen sozialen Gruppe stammen (siehe Abb. 5.1). Hinzu kommt, dass Social Media algorithmengesteuert selbst Inhalte vorschlagen, die der eigenen Meinung entsprechen. So entstehen homogene Meinungsräume in den Social Media (genannt: Fringe Communities), in denen eine ungefilterte Meinungsäußerung möglich ist. Nach dem Ansatz der Reinforcing Spirals (s.o.) bedingen sich Identitätsbildung und identitätsbedingte Auswahl von Medieninhalten wechselseitig und haben nicht notwendigerweise einen klaren Anfangspunkt (vgl. Wulf et al. 2023).

Stop and Think

Nehmen Sie (viel) am Diskurs in den sozialen Medien teil oder verhalten Sie sich (eher) passiv?

Bei der Positionierung zu politischen oder anderweitig gesellschaftlich relevanten Themen gab es die Hoffnung, dass das Internet die Demokratie stärken und mehr Menschen, auch marginalisierte Gruppen, am politischen Meinungsaustausch partizipieren würden (vgl. Polizzi 2020). Allerdings wurde festgestellt, dass nur ein geringer Anteil an Personen tatsächlich aktiv am Kommunikationsgeschehen teilnimmt. Der allergrößte Teil der Nutzer*innen ist passiv. Wie sehr sich jemand in Online-Debatten einbringt, hängt u.a. von der Persönlichkeit ab, wodurch sich auch in diesem Verhalten ein Teil der Identität einer Person widerspiegelt.

Im Gegensatz zum Lesen einer Printzeitung hinterlassen aber auch die passiven Nutzer*innen einen Beitrag zu von ihnen rezipiertem Content, indem allein ihre Klicks bzw. Besuche als Nutzungsdaten gewertet werden (vgl. Thimm 2022). Die sichtbaren Nutzungsdaten und unsichtbaren Algorithmen, die diese berücksichtigen, führen dazu, dass häufig gesehener Content an Bedeutung gewinnt (vgl. Thimm 2022; siehe Einheit Medien.Daten). Das, was die Massenmedien an Inhalten transportieren, wird als die öffentliche Meinung wahrgenommen, an der sich Menschen gern orientieren (vgl. Wulf et al. 2023). Kaum jemand möchte sich zu weit von der öffentlichen Meinung entfernen, um nicht mit einer abweichenden oder unpopulären individuellen Meinung allein dazustehen. Menschen machen sich aus diesem Grund kontinuierlich ein Bild von der Meinungsverteilung in der Gesellschaft. Wer sich in der öffentlichen Mehrheitsmeinung repräsentiert sieht, äußert sich wahrscheinlich eher zu einem Thema als jemand, der*die sich in der Minderheit sieht (vgl. Wulf et al. 2023). Trotz Meinungsfreiheit gibt es also Tabus, die sich in Social Media aber schneller wandeln als in der realen Welt (vgl. Stark/Magin/Geiß 2022). Wer sich in Online-Debatten einen Fehltritt erlaubt, wird leicht zum Opfer eines Shitstorms (Lünenborg 2022). So bezeichnet man ein geballtes Auftreten negativer Kritik in Social Media oder Blogs. Hierüber wird die Identitätskonstruktion in der Online-Welt noch einmal erschwert, wobei marginalisierte Gruppen häufiger Anfeindungen erfahren. Auch an diesem Aspekt zeigt sich, dass Medienkompetenz (vgl. Leaning 2017; siehe Einheit Medien.Rezeption) zur Bewältigung der Anforderungen bei der Nutzung digitaler Medien notwendig ist.

Die durch die algorithmische Vorsortierung von Informationen entstehenden Filterblasenund Echokammern oder auch Fringe Communities können potenziell die soziale Spaltung verstärken, indem sich Menschen mit Gleichgesinnten abkapseln und Andersdenkende selbst ausgrenzen bzw. medial gesteuert voneinander separiert werden. Das kann zu einer »Fragmentierung der Öffentlichkeit« führen (vgl. Heldt 2022). Dabei werden die Filterblasen durch das eigene Rechercheverhalten und die hierdurch bedingten digitalen Spuren im Netz zunehmend adaptiert und technikinduziert verfeinert:

»Einem Muslim werden beim Suchbegriff ›Muslime‹ vorrangig religiöse Themen angeboten, einem Rechtsextremisten dagegen eher Webseiten, die rechtsextreme Positionen gegenüber Muslimen verbreiten. […] Pariser nennt dies das Gegenteil von Informationsfreiheit; die Subjektivierung führe zum Subjektverlust.« (Zorn 2015: 28)

Über algorithmengesteuerte Filterblasen und Echokammern kann die Gefahr von Verschwörungstheorien zunehmen – was die Notwendigkeit verdeutlicht, ganz bewusst immer wieder die eigene Position zu überdenken und sich in möglichst unterschiedlichen sozialen Netzwerken und Medien zu informieren.

Da Nachrichten in einer Kultur der Digitalität mit rasender Geschwindigkeit geteilt werden (können), entstehen auch weitere gravierende Risiken im Bereich des sozialen Miteinanders: Beleidigende Kommentare haben bspw. 51 Prozent der Befragten Personen erlebt (JIM-Studie 2023). Laut Ditch the Label (2017) haben 33 Prozent in Social Media häufig bis ständig Erfahrungen mit Mobbing gemacht, was negative Folgen für die mentale Gesundheit haben kann, die sich bis ins Erwachsenenalter auswirken (vgl. Scott et al. 2016: 2). Mobbing etc. ist dabei kein Phänomen, was sich durch die Existenz digitaler Medien bedingt, aber Social Media stellen einen zusätzlichen Kanal dar, der die Verbreitung von Hassbotschaften über das Teilen beschleunigt.

Die oben genannten Zahlen aus der JIM-Studie sind schnell veraltet. Sie deuten jedoch eine Herausforderung von digitalen Medien an, die unabhängig vom Bezugsjahr ist: die Gefahr eines verantwortungslosen Umgangs mit Daten im Netz. Teilnehmende in Bildungskontexten auf diese Herausforderung hinzuweisen, bleibt eine stetige Aufgabe von Lehrenden (siehe Einheit Medien.Didaktik).

Wir halten fest: Menschen nehmen insbesondere medial vermittelte Informationen wahr, die sich in das eigene Meinungsbild einfügen. Dies liegt nicht nur daran, dass Menschen geneigt sind, vertraute Sichtweisen zu bestätigen (siehe Einheit Medien.Rezeption), sondern auch daran, dass die dargebotenen Inhalte über Algorithmen gesteuert und vorselektiert werden (siehe Einheit Medien.Daten).

Interessant ist an dieser Stelle noch zu erwähnen, dass laut der JIM-Studie (2023) die Wahrnehmung von Fake News mit dem Alter kontinuierlich von 40 % im Alter von 12-13 Jahren auf 72 % im Alter von 18-19 Jahren ansteigt. Auch die Wahrnehmung extremer politischer Ansichten steigt von 22 % auf 59 % und die Wahrnehmung von Verschwörungstheorien von 23 % auf 57 % mit zunehmendem Alter kontinuierlich an – ebenso wie die Wahrnehmung von Hassbotschaften (von 22 % auf 53 %) oder die Wahrnehmung beleidigender Kommentare (von 37 % auf 63 %). Dies kann einerseits auf einen absolut kontinuierlich steigenden Wert hindeuten, könnte andererseits allerdings – wie oben angedeutet – positiv gewendet, auch auf altersbedingt zunehmende Medienkompetenz zurückzuführen sein.

In diesem Abschnitt ging es insbesondere um die einerseits identitätsstiftende und andererseits die identitätsgefährdende Funktion von Medien. Es wurde herausgearbeitet, was die algorithmenbasierte Darbietung von Inhalten für die eigene Identitätsbildung bedeutet. Es wurde ebenfalls herausgearbeitet, dass die eigene Identität sich tendenziell im Netz Bestätigung verschafft und somit zur Sich-Selbst-Versicherung beiträgt.

Literatur- und Web-Tipps

Wer sich tiefergehend mit der technischen Seite von Medien.Bildung auseinandersetzen möchte, sei auf die Einheit Medien.Daten verwiesen. Hier wird die grundlegende Funktionsweise von Algorithmensteuerung erläutert. Weitgehend offen bleibt jedoch die Frage, wie auf die algorithmengesteuerten Filterblasen reagiert werden kann. Tipps finden sich hier: https://www.saferinternet.at/news-detail/filterblasen-im-internet-mythos-realitaetscheck-und-wie-man-sie-umgehen-kann

Die Schaffung eines Bewusstseins für das potenzielle »Gefärbt-Sein« von Informationen kann helfen, diese kritischer zu rezipieren. Auf Ebene des Individuums wird immer wieder auf eine kritisch-reflexive Medienkompetenz abgehoben, aber auf gesellschaftlicher Ebene werden auch Rufe nach staatlicher Regulation laut: Es sei die »Einübung einer kritisch-reflexiven Distanz zu widersprüchlichen Informationslagen mit uneindeutigem Wahrheits- und Wahrhaftigkeitsgehalt ein leitendes Bildungsziel« (Heldt 2022: 4). Da Plattformen von Phänomenen wie Fake News und Hate Speech durchaus profitieren können, setzt »die Bekämpfung dieser Phänomene […] nicht nur individuelle Kompetenzen, sondern auch geeinigte politische Regulierungen und Rahmenbedingungen voraus« (Heldt 2022: 4).

Take Home Messages
  • Es gibt algorithmengesteuerte Filterblasen, die die Meinungsbildung kanalisieren. Über sogenannte Reinforcing Spirals gewinnen die Äußerungen aus der eigenen Community an Bedeutung.
  • Durch das Ausblenden von Gegenargumenten ist eine einseitige Identitätsformung bzw. mediale Desinformation möglich.

Fake News

Falschnachrichten

×