Filterblase: Definition

Wenn man nur mit der eigenen Meinung konfrontiert wird, nie die Gegenseite dargestellt bekommt, immer nur bestätigt wird und die kontroverse Diskussion eines Themas verpasst, lebt man in einer Meinungsblase. Dies kann passieren, wenn man ausschließlich in Freundesgruppen mit ähnlichen Interessen verkehrt und beispielsweise immer die gleiche Informationsquelle heranzieht.

Online kann es zu demselben Phänomen kommen, wenn Informationen bei Suchmaschinen oder Feeds der Sozialen Netzwerke gefiltert werden. Diese Blase nennt sich Filterblase. Der Begriff Filterbubble, englisch für Filterblase, wurde 2011 von Politaktivist Eli Pariser in seinem Buch „Filter Bubble: Wie wir im Internet entmündigt werden“ geschaffen. Ihm fiel auf, dass er auf Facebook immer weniger von seinen Kontakten, die konservativ orientiert waren, las. Der verdächtigte Übeltäter: Der Facebook-eigene Algorithmus.

 

Seifenblasen

GettyImages/Vladimir Vladimirov

Wie entstehen Filterblasen?

Filterblasen entstehen durch Algorithmen. Ein Algorithmus bestimmt, wie ein Computerprogramm sich verhalten soll. Bei Sozialen Netzwerken bedeutet das, welche Inhalte in einem Feed angezeigt werden: Je nach Programmierung kann ein Algorithmus Prioritäten auf Inhalte von Freunden setzen, mit denen ich oft in Kontakt stehe. Oder auf Inhalte, die viele andere Nutzer/-innen geliked oder kommentiert haben. Oder aber er zeigt mir Inhalte, die ich häufig ignoriere, einfach gar nicht mehr an. Bei Suchmaschinen bezieht sich dies auf die Auswahl und Sortierung der relevanten Ergebnisse zum Suchbegriff.

Filterblasen entstehen also durch den Versuch, News-Feeds oder Suchergebnisse zu personalisieren: Uns werden durch Algorithmen ausgewählte Themen angezeigt, die uns potenziell gefallen können und unsere zuvor registrierten Interessen bestätigen oder ihnen ähneln. Nach welchen Kriterien ein Algorithmus arbeitet, hängt von der jeweiligen Plattform ab. Facebook sortiert anders als Twitter, das wiederum anders sortiert als Google. Wie genau welche Plattform sortiert, ist meist nur oberflächlich bekannt – die Unternehmen halten ihre Algorithmen geheim.

Auswirkungen

Dieser einseitige Newsfeed kann neben einem verzerrten Meinungsüberblick auch Einfluss auf die Meinung der Nutzer/-innen selbst haben. Durch eine einseitige Berichterstattung wird die eigene Weltansicht verstärkt, mehrere andere dabei ignoriert. Zum einen fehlt dadurch die Möglichkeit der umfassenden Reflexion eines Themas, zum anderen besteht die Gefahr der Anpassung an eine der ständig dargestellten Meinungen. So könnte jemand von einer gemäßigten Ansicht zu einer – übertrieben formuliert – extremen Ansicht geführt werden.

Beispiel 1 – So selektiert Google

Google veröffentlicht lediglich Anhaltspunkte, nach welchen Kriterien der Algorithmus bei einer Suchanfrage selektiert. Google erstellt eine Art Ranking von Seiten. Seiten, die aktuell sind, oft bei gleichen Suchanfragen angeklickt werden oder etwa auf anderen seriösen Seiten verlinkt sind, werden als relevant gelistet. Ebenso werden die Inhaltselemente der Seiten mit einbezogen: Relevante Bilder, Videos aber auch einfache Listen oder Tabellen verhelfen zu einem guten Ranking. Weitere Kriterien bei Suchanfragen sind Informationen, die Google über die Nutzer/-innen hat: Neben der Such-Sprache werden der aktuelle Standpunkt der Nutzer/-innen während der Suche oder auch die Suchhistorie mit einbezogen, um laut Google ein relevanteres Suchergebnis für die Nutzerin bzw. den Nutzer zu bieten. Unter myaccount.google.com lässt sich allerdings einstellen, welche Daten Google zum Filtern der Suche nutzt.

Beispiel 2- So selektiert Facebook

Facebooks erklärtes Ziel ist es, den perfekten News Feed für seine Nutzer/-innen zusammenzustellen. Denn je interessanter der News Feed, desto länger ist die Verweilzeit auf der Plattform. Dafür legt Facebook erstaunlich viele seiner Rating-Faktoren offen – wobei der Algorithmus so komplex ist, dass er kaum analysiert werden kann.

Um großflächig vom Algorithmus auf den News Feeds der Nutzer/-innen ausgespielt zu werden, müssen verschiedene Faktoren auf einen Beitrag zutreffen. Generell werden Beiträge mit viel Interaktion (Liken, Kommentieren, Teilen) öfter ausgespielt, hier spielt vor allem die Aktualität eine große Rolle. Generell pusht Facebook Bildbeiträge, aktuell aber vor allem (Live-)Videos und Inhalte mit weiterführenden Links.

Hinzu kommen benutzerspezifische Faktoren: Wie lange hat ein User ähnliche Posts im News Feed gelesen oder ähnliche Seiten geliked oder angeschaut? Facebook kann sogar analysieren wie gut die aktuelle Internetverbindung ist und kann daraufhin die gezeigten Beiträge anpassen. So erscheinen beispielsweise Videos, die nicht laden würden, erst gar nicht im News Feed.

Facebook achtet aber nicht nur auf die Ausspielung von potenziell interessantem Content, sondern auch auf das Aussortieren von unbeliebtem Content. Beiträge, die von anderen Nutzerinnen und Nutzern in deren persönlichem Feed häufig verborgen werden, werden weniger ausgespielt. Ebenso werden Clickbait-Überschriften aussortiert und Posts mit Links zu unseriösen Seiten eingeschränkt. Genauso wird es mit Verlinkungen auf Seiten, die generell langsam laden, gehandhabt.

Welchen Einfluss Cookies und persönliche Daten haben, die Facebook über die Nutzer/-innen gesammelt hat, ist unbekannt.

Nutzerfreundlich oder einschränkend?

Was sich größtenteils nutzerfreundlich anhört, kann beispielsweise bei der politischen Meinungsbildung weitreichende Folgen haben – siehe die Präsidentschaftswahl in den USA 2016.

Für Viele war der Wahlausgang bei den 58. Präsidentschaftswahlen eine Überraschung. Neben dem Vorwurf der einseitigen Berichterstattung der Medien wurde dem Phänomen der Filterblase eine Mitschuld zugesprochen. Social-Media-User hätten nur ihre eigene, widergespiegelte Meinung in ihren Feeds zugespielt bekommen, diese aufgrund ihrer Allgegenwärtigkeit für die grundlegende Stimmung im Lande missinterpretiert und seien so getäuscht worden. So lautete die Kritik von vielen Seiten.

Kann Social Media überhaupt mehr als Unterhaltung?

Doch eine wichtige Frage bleibt als grundlegende Kritik: Soziale Netzwerke als Informationskanal – geht das überhaupt? Auf Facebook nutzen Fernsehsender und Zeitungen Seiten, um ihre Follower zu informieren. Dabei muss beachtet werden: Soziale Netzwerke waren ursprünglich in der ersten Linie zur Unterhaltung gedacht. Emotionen machten sie für die Nutzer/-innen interessant. Gefolgt wird also den Inhalten, die individuell von Interesse sind. Darauf ist dann auch selbstverständlich der Algorithmus ausgelegt: Was den Nutzer/-innen gefällt, wird auch öfters im Feed angezeigt.

Unter diesem Aspekt ist ein vorsortierender Algorithmus auch gar nicht nur negativ zu betrachten: Bei der heutigen Masse an Informationen – vor allem im Unterhaltungsbereich – ist es nahezu unmöglich, alle Inhalte übersichtlich anzuzeigen. Auch bei Suchen kann eine Vorauswahl, die auf zuvor gezeigten Interessen liegt, helfen: Habe ich nach einem 5-Sterne-Hotel gesucht, ist die Wahrscheinlichkeit gering, dass ich ein Hostel für den nächsten Urlaub buche.

Was kann man gegen Filterblasen tun?

Generell muss mir als Nutzer/-in bewusst sein, dass Soziale Netzwerke schwerpunktmäßig die Inhalte anzeigen, denen ich ohnehin folge. Und dass sogar aus diesen Inhalten unter Umständen nochmal aussortiert wird. Wer sich umfangreich informieren möchte, sollte daher selbst auf unterschiedlichen Plattformen nach verschiedenen Ansichten und Meinungen suchen. Eine Filterblase zu umgehen ist also eine Sache der Informationskompetenz. Der Mythos Filterblase sollte also nicht überschätzt werden: Viele Zeitungen haben schließlich auch eine politische Richtung – mit der wir entsprechend umgehen müssen.

Auf ein ähnliches Ergebnis kommt übrigens die Süddeutsche Zeitung (SZ): Im Rahmen einer Datenrecherche zur politischen Landschaft auf Facebook wurde festgestellt, dass es „dicht versiegelte Filterblasen […] auf politischer Ebene im deutschen Facebook praktisch nicht“ [1] gibt. Die SZ hat im Rahmen ihrer Recherche Facebook-Likes von rund 5.000 politisch interessierten Facebook-Nutzer/-innen ausgewertet.

Ina Mangold

Diese Seite teilen: