Filterblasen - sehen, was man  eh schon weiss

Filterblasen - sehen, was man eh schon weiss

Die "Filterblase" - ein schwammiger Begriff. Und doch ist sie jederzeit beim Navigieren und Suchen im Internet oder in den sozialen Netzwerken präsent. 

Die Menge an Daten im Internet ist so astronomisch gross, dass wir die Informationen, die wir abrufen möchten, nur mithilfe von Suchmaschinen der grossen Internetfirmen finden können, die den endlosen Strom an Texten, Fotos und Filmen unaufhörlich durchkämmen und kategorisieren und so für uns auf einfache Weise zugänglich machen. Diese Dienstleistung, die uns die Betreiberfirmen der Suchmaschinen und der sozialen Netzwerke anbieten, ist für uns so nützlich, dass heute wohl fast niemand mehr darauf verzichten möchte. Die Kehrseite der Medaille ist jedoch, dass die grossen Internetfirmen entscheiden, was wir zu sehen bekommen und nach welchen Kriterien die Auswahl erfolgen soll. Damit besteht die Gefahr, dass unser Denken und unsere Entscheidungen grundlegend beeinflusst werden, ohne dass uns dies bewusst ist.

In unserem Artikel "Wer sucht, der findet!" haben wir aufgezeigt, dass Filterung und Kategorisierung uns bei der Suche nach Informationen effizient unterstützt. Wenn uns aber Suchmaschinen und soziale Netzwerke wirklich nur Informationen anzeigen, die nach bestimmten Kriterien individuell für uns ausgewählt werden, kann das auch negative Seiten haben.

Stellen Sie sich vor, Sie gehen zum Essen in ein Restaurant. Hätten Sie dann nicht gerne eine Speisekarte, die alle verfügbaren Gerichte zeigt? Wenn Ihnen der Wirt nun eine Speisekarte mit einer begrenzten Auswahl an Speisen bringt, die er ohne ihr Wissen nach verschiedenen Kriterien für Sie zusammengestellt hat (z.B. entsprechend Ihrem Körpergewicht, Ihrem Fitnesslevel, Ihrem Monatseinkommen oder Ihrer Nationalität), wären Sie damit einverstanden? 

Definition

Die Filterblase (Englisch: filter bubble) oder Informationsblase ist ein Begriff der Medienwissenschaft, der dem Internetaktivisten Eli Pariser zugeschrieben wird, der ihn in seinem gleichnamigen Buch aus dem Jahr 2011 verwendet. Laut Pariser entsteht die Filterblase durch die Auswahl an Informationen, die dem Internetnutzer angezeigt werden. Durch diese Auswahl werde der Internetnutzer in eine intellektuelle und kulturelle Isolierung geführt (Wikipedia).

Gemäss dieser Theorie führt die Auswahl von Inhalten durch Algorithmen den Nutzer in eine Isolierung, in der er nur noch zu sehen bekommt, was er schon weiss. Was ist dran an dieser Theorie? Tatsächlich wählen Algorithmen angezeigte Inhalte auf der Grundlage verschiedener, über den Nutzer gesammelter Daten aus, z.B. die vom Nutzer früher durchgeführten Internet-Suchen, Verbindungszeiten, besuchte Seiten, Klicks, soziale Interaktionen, Land des Wohnsitzes, gelikte Posts, Facebookfreunde usw.  Durch die Zusammenführung und den Abgleich dieser Informationen wird ein einzigartiges Profil des Internetnutzers erstellt. Dieses wird mit Millionen von Daten anderer Nutzer abgeglichen und nach vermeintlichen Eigenschaften und Interessen (Mann, Frau, jung, alt, Beruf, politischer Hintergrund, Hobbys, Interessen, familiäre Situation...) sortiert und katalogisiert, ohne dass Nutzer diese Informationen einsehen und kontrollieren können. 

Die über den einzelnen Nutzer gesammelten Daten sind die Grundlage für die Kriterien, nach denen Informationen in sozialen Netzwerken und Suchmaschinen aufgelistet werden. Informationen werden Ihnen also nicht in einer neutralen Reihenfolge angezeigt, sondern entsprechend der Übereinstimmung mit Ihrem Profil. Mit in die Berechnung fliessen Daten über die Eienschaften Ihrer Freunde oder der Unternehmen und Marken, die Sie am meisten besuchen. Jede Ihrer Suchen in einem sozialen Netzwerk wird von diesen Algorithmen beeinflusst, die fortlaufend angepasst werden. Nicht passende Inhalte werden ausgeblendet. 

Diese Vorgehensweise ist in sozialen Netzwerken,  Suchmaschinen, Online-Portalen und Shops üblich und weit verbreitet. 

Wie sieht das nun in der Praxis aus

Das Phänomen wird stark thematisiert und hat viele Facetten. Einerseits bietet das Filtern und Priorisieren von Inhalten oft eine willkommene und nützliche Orientierungshilfe. Andererseits hat es nicht nur Auswirkungen auf unser Konsumverhalten, sondern kann auch unser politisches Denken beeinflussen.

Wer profitiert davon?

Wenn Ihr Profil bestimmten Kriterien entspricht, kann man Sie Gruppen von Personen mit gemeinsamen Merkmalen zuordnen. Und wenn bekannt ist, was diese Gruppen mögen, können Inhalte speziell für diese Interessen erstellt werden, auch mithilfe künstlicher Intelligenz. Dadurch wird es für eine Marke oder eine Vereinigung einfach, gezielt Werbung zu machen und das Marketing den unterschiedlichen Nutzergruppen anzupassen. Ebenso einfacher wird es, politische Meinungen zu verstärken oder abzuschwächen. 

Sie werden nun bei jedem Besuch mit einer Fülle an Informationen versorgt, die Ihnen bzw. Ihrer Nutzergruppe genau entsprechen, damit Sie in diesen Blasen bleiben. Da sie viele gleiche oder ähnliche Informationen erhalten, fällt es Ihnen schwer, ungenaue, ungeprüfte oder falsche Inhalte zu erkennen und als solche einzuordnen. 

Mit den über Sie gesammelten Daten wird reger Handel betrieben. Der Artikel "Wer besitzt was im Internet" gibt einen Überblick über dieses Thema und bietet Anregungen für den Unterricht. 

Beispiele

Ein Beispiel für Filterblasen sind die Anzeigen in Google. Tatsächlich genügt es, ein bis zweimal nach einem bestimmten Begriff zu suchen und schon erscheinen zahlreiche Werbebanner im Zusammenhang mit Ihrer Suche. Nicht nur bei der Suchmaschine selbst! Auf den verschiedensten Plattformen wie Onlineshops, Videoportalen und Spielen erhalten Sie nun benutzerspezifische Werbungen und Inhalte. 

Eine andere Filterblase gibt es bei YouTube, mit den Werbeanzeigen und den Vorschlägen für weitere Videos, die Ihrem Suchverlauf und den angesehenen Videos entsprechen. Je spezieller das Thema, umso besser funktioniert der Filter, wie beispielsweise bei Verschwörungstheorien: Wenn man nach Informationen zu "Die Erde ist flach" sucht, wird man erstaunt feststellen, dass es eine Vielzahl von Seiten und Videos zu diesem Thema gibt. Die Machart ist teilweise recht clever, weil man bei den Aussagen unpräzise, suggestiv und offen bleibt, sich aber bei der Themenwahl in einem Schwarz-Weiss-Bereich befindet (entweder ist die Erde flach oder sie ist es eben nicht).

In sozialen Netzwerken verbindet man sich mit anderen Menschen, teilt Interessen, Fotos, Meinungen. Auch bei der Auswahl dieser "Freunde" gibt es die Filterblase. Die meisten sozialen Netzwerke haben Algorithmen, die entscheiden, welche Kontakte in Ihrem News-Feed an welcher Stelle angezeigt werden. Möglicherweise sind es diejenigen, mit denen Sie am meisten Beziehungspunkte haben (die anderen werden ausgeblendet) oder die, die ähnliche Inhalte wie Sie mögen. Kurz gesagt, die sozialen Netzwerke versuchen, Ihnen eine möglichst angenehme Umgebung zu schaffen, um Sie daran zu hindern, die Seite zu verlassen. 

Politisch gesehen hat der Fall Cambridge Analytica bei den Wahlen 2016 in den Vereinigten Staaten und beim Brexit in England deutlich gezeigt, dass es möglich ist, Bürgerinnen und Bürger, insbesondere unentschlossene Wähler, durch diese Filterwirkung zu beeinflussen, indem man sie gezielt anspricht und ihnen auf sie abgestimmte (und zum Teil falsche) Informationen zeigt.

Auswirkungen 

Die auf uns zugeschnittene Auswahl an Inhalten hat einen extrem negativen Aspekt. Wir werden mit angenehmen, uns in der eigenen Meinung verstärkenden Inhalten überschwemmt, während die Filterblase alternative oder gegensätzliche Gedanken unterdrückt. Wenn wir uns in einer Filterblase befinden, gibt es keine Vielfalt mehr und keine anderen politischen Meinungen. Die Möglichkeit, auf andere Informationen zuzugreifen wird erschwert und die Mittel zur Meinungsbildung werden reduziert. 

Die Tatsache, dass man in dieser Vielzahl gleichartiger Inhalte "badet", hat einen interessanten und beängstigenden Effekt: In der Tat wird die Fülle gleicher Informationen als Bestätigung der eigenen Meinung angesehen, der eigenen Wahrheit. So erhält man die Gewissheit, dass diese Meinung die beste ist, weil sie durch die Vielzahl ähnlicher Meldungen bewiesen ist. In der Folge findet eine Polarisierung statt: Es gibt nur eine richtige Meinung. Bildlich gesprochen gibt es nur noch schwarz oder weiss, die Grautöne verschwinden. Das erschwert oder verunmöglicht Debatten, weil es an Andersdenkenden fehlt. 

Schliesslich, und das zeigt sich in Ländern, in denen soziale Netzwerke die traditionellen Medien als Informationsquelle verdrängen, entstehen soziale Gräben zwischen den verschiedenen Meinungsgruppen. Diese Spaltungen sind tief in der Gesellschaft verwurzelt und werden politisch genutzt. Diese "Entsolidarisierung" der Gesellschaft aufgrund der Omnipräsenz von Fake News und des polarisierten Diskurses wurden beispielsweise bei den brasilianischen Präsidentschaftswahlen 2018 beobachtet. 

Tipps 

  • Sich des Problems bewusst sein: Schon das Wissen, dass es Filterblasen gibt, ist ein Weg, sich zu befreien.
  • Die Algorithmen beeinflussen: Durch abwechslungsreiche Suchanfragen oder konträre Meinungen werden die Algorithmen durch Ihr Profil allmählich verunsichert und Sie erhalten zweifellos Zugang zu differenzierten Inhalten. Wenn Sie z. B. mehreren politischen Parteien ein Like geben, können Sie die angezeigten Inhalte diversifizieren.
  • Die Ergebnisse unterschiedlicher Suchmaschinen vergleichen: Nicht alle Suchmaschinen verwenden den Suchalgorithmus von Google. Qwant (oder Qwant junior) zum Beispiel verwendet keine Benutzerdaten.  
  • Die eigenen Daten schützen: Indem Sie im Internet im "privaten" Modus surfen, schränken Sie das Sammeln von persönlichen Daten ein. Darüber hinaus gibt es viele Add-ons für Browser, die das Sammeln von persönlichen Daten verhindern. 

 

Weitere Informationen

 

Umsetzung im Unterricht