Filterblasen – Immer noch die blödeste Metapher in der Geschichte des Internets?

Lesedauer: 10 Minuten

Sind Filterblasen wirklich so schlimm, wie alle behaupten? 2018 nannte der Journalist Sebastian Meineck sie „die blödeste Metapher des Internets“1. Aber hier sind wir, sechs Jahre später, und diese kleine Metapher ist immer noch allgegenwärtig, wenn es um die negativen Seiten sozialer Medien geht – besonders hinsichtlich der Politik. Also, was ist dran an den Filterblasen? Sind sie wirklich der Sargnagel unserer digitalen Gesellschaft oder doch nur ein übertriebener Mythos? In diesem Artikel nehme ich euch mit auf eine Reise durch die Geschichte dieser Idee, untersuche, warum sie sich so hartnäckig hält, und zeige, was die Forschung darüber sagt. Am Ende skizziere ich, wie wir die Debatte über soziale Medien aus der Filterblasen-Sackgasse holen können.

Eine Utopie wird zur Dystopie

Ende der 1990er-Jahre herrschte große Euphorie unter Technologieenthusiasten und Medienvisionären. Sie sahen das Internet als revolutionäres Werkzeug zur Transformation der Informationsverbreitung, unter anderem durch die Möglichkeit, den Nachrichtenkonsum zu personalisieren. Einer von ihnen war Nicolas Negroponte, der den Begriff daily me prägte2. Er stellte sich eine Zukunft vor, in der jeder Mensch ein maßgeschneidertes Nachrichtenprogramm erhält, das auf persönliche Interessen und Vorlieben abgestimmt ist. Diese Vision einer vollständig personalisierten Medienlandschaft versprach individuelle Vorteile, wie eine bessere Nutzererfahrung und einen gesteigerten Wert der empfangenen Informationen, ohne jedoch die gesellschaftlichen Implikationen zu berücksichtigen.

Diese optimistische Vorstellung wurde jedoch schnell von Kritikern wie Cass Sunstein infrage gestellt. Sunstein prägte den Begriff „Echokammer“, um zu beschreiben, wie die zunehmende Personalisierung des Informationsangebots im Internet dazu führen könnte, dass Menschen vor allem Inhalte sehen, die ihre eigenen Ansichten bestätigen 3. Er betrachtete dieses Phänomen aus der Perspektive der gesamtgesellschaftlichen Auswirkungen und argumentierte, dass diese Entwicklung die Fähigkeit der Öffentlichkeit untergraben könnte, gesellschaftlich relevante Debatten zu führen und gemeinsame Bezugspunkte zu finden, was die gesellschaftliche Integrationsfunktion der Medien schwächen könnte. Zudem könnte der Austausch innerhalb homogener Gruppen bestehende Meinungen verstärken, was zu einer zunehmenden Fragmentierung der Gesellschaft führt.

Etwa ein Jahrzehnt nach Sunsteins Ausführungen zu Echokammern führte Eli Pariser das Konzept der „Filterblase“ ein

4. Während Sunstein die sozialen Dynamiken und die Verstärkung bestehender Meinungen innerhalb homogener Gruppen betonte, legte Pariser den Schwerpunkt auf die Rolle der Technologie. Er argumentierte, dass algorithmische Auswahlprozesse, wie sie von Plattformen wie Google eingesetzt werden, Nutzer unbewusst in ein individuelles Informationsuniversum einsperren. Diese Algorithmen, die Inhalte basierend auf früherem Verhalten und persönlichen Präferenzen auswählen, könnten die Sichtweise der Nutzer verengen und so die demokratische Debatte beeinträchtigen.

Während das Internet zur Jahrtausendwende noch als Heilsbringer gefeiert wurde, dominieren inzwischen Bedenken hinsichtlich seiner Auswirkungen auf die Demokratie die Debatte. Sunstein und Pariser haben mit ihren Begriffen diesen Stimmungswandel treffend eingefangen. Beide Theorien bieten mögliche Erklärungen dafür, warum im Internet homogene Informationsräume zunehmen könnten, was die Integrationskraft der Medien schwächen und den gesellschaftlichen Zusammenhalt sowie die Funktionsfähigkeit der Demokratie gefährden könnte. Während Sunstein stärker die sozialen Dynamiken und die potenzielle Verstärkung von Gruppenmeinungen betont, fokussiert Pariser auf die Rolle technologischer Prozesse, insbesondere der Algorithmen, und deren Einfluss auf die individuelle Wahrnehmung.

Die Rolle der Öffentlichkeit in der Demokratie

Die Diskussion um Filterblasen und Echokammern lässt sich gut im Rahmen der normativen Öffentlichkeitstheorie verstehen, wie sie von Jürgen Habermas entwickelt wurde 5. Diese Theorie betont die Funktion der Öffentlichkeit als wichtiges Bindeglied zwischen Politik und Bürgern, das eine breite und offene Debatte ermöglichen soll.

Habermas‘ Theorie stellt ein Ideal dar, das die Integration der Vielfalt der Meinungen in der Gesellschaft fördern soll, um einen demokratischen Entscheidungsprozess zu ermöglichen. Dies steht im Einklang mit den Grundprinzipien der Demokratie. Allerdings beschreibt diese normative Theorie eine idealisierte Vorstellung von Öffentlichkeit, die in der Praxis oft nicht erreicht wird, da reale gesellschaftliche und wirtschaftliche Machtstrukturen den Diskurs beeinflussen können.

Konzepte wie Filterblasen und Echokammern erscheinen aus dieser normativen Perspektive besonders problematisch, da sie die Wahrnehmung einer breiten Meinungsvielfalt einschränken und so die Integrationsfunktion der Medien gefährden. Wenn die Öffentlichkeit ihre Aufgabe, vielfältige Meinungen zu vermitteln, nicht erfüllt, bietet dies eine Erklärung für Phänomene wie die Fragmentierung der Gesellschaft, die zunehmende Polarisierung und Radikalisierung.

Vom Suchen und nicht Finden der Filterblasen

Besonders im Fokus der anhaltenden Forschung zu Filterblasen stehen die “üblichen Verdächtigen”: die Google-Suche, Facebook und YouTube. Aufgrund ihrer Menge an Nutzern, den Personalisierungsmöglichkeiten und des Geschäftsmodells wird hier gemeinhin die größte Gefahr zu Bildung von Filterblasen gesehen.

Anm. 1: An dieser Stelle ein kurzer Hinweis, der für das gesamte Feld der Forschung zu digitalen Plattformen gilt: Die Debatte der letzten Jahre hat viel Bewegung in die Funktionsweise dieser Plattformen gebracht. Es handelt sich um ein extrem dynamisches Feld, weshalb es sich immer um Momentaufnahmen handelt. Der Trend der letzten Jahre ist jedoch, dass Personalisierung gerade im Hinblick auf politische Inhalte eher abnimmt.

Suchmaschinen: Search Engine Bias auf Google

Die Ursprungserzählung der Filterblasendebatte geht auf die Befürchtung von Eli Pariser zurück, dass Suchmaschinen die Ergebnisse so stark personalisieren, dass Personen völlig unterschiedliche Ergebnisse angezeigt bekommen, je nach deren politischer Einstellung und Interessen.

In einer Experimentalstudie von Jürgens, Stark und Magin (2014) wurden verschiedene Profile bei Google trainiert, um zu überprüfen, ob sich Suchergebnisse nach einer langen und einseitigen Suchhistorie voneinander unterscheiden 6. Gefunden wurde, dass sich auf der ersten Seite der Ergebnisse nur einige wenige Abweichungen über die Zeit ergaben und selbst diese waren häufig nicht klar einer Seite zuzuordnen.

Seither wurden diese Ergebnisse mehrfach bestätigt. Es hat sich die Erkenntnis durchgesetzt, dass Suchmaschinen zwar einen Bias haben, dieser jedoch eher allgemeiner Natur ist und die stärkste Art der Anpassung aufgrund des Standortes vorgenommen wird. Suchergebnisse werden also weniger personalisiert als befürchtet, weshalb Filterblasen hier keine zutreffende Beschreibung sind.

Großexperiment auf Facebook

2023 erschien in Nature eine groß angelegte Untersuchung von Brendan Nyhan und knapp 30 weiteren Wissenschaftlerinnen, die die seltene Gelegenheit hatten, mit einem großen Datensatz von Facebook zu arbeiten7. Untersucht wurde, inwiefern Personen Informationen von politisch Gleichgesinnten sehen und ob es Auswirkungen auf die Einstellungen der Personen hat, wenn man diesen weniger solche Inhalte zeigt. Zwar stammt der Großteil der Inhalte, die Nutzer sehen, von Quellen, die ähnliche Ansichten haben, jedoch gab es so gut wie keine Personen, die nur Informationen von Gleichgesinnten sahen. Zusätzlich machten politische Informationen und Nachrichten nur einen kleinen Bruchteil der Inhalte aus, die Nutzerinnen insgesamt sahen.

Im Laufe des Experiments wurde für einige Personen die Sichtbarkeit der Inhalte von Gleichgesinnten reduziert, was zur Folge hatte, dass diesen mehr Inhalte von Quellen mit anderer oder neutraler Orientierung angezeigt bekamen. Die bloße Reduzierung der Exposition aus gleichgesinnten Quellen führte aber nicht dazu, dass sich die politische Einstellung veränderte.

Demnach bezogen Nutzerinnen zwar die Mehrheit ihrer Inhalte von Quellen mit ähnlicher politischer Orientierung. Zum einen waren andersdenkende Quellen aber so gut wie nie ausgeschlossen und zum anderen zeigte eine stärkere Sichtbarkeit von Inhalten Andersdenkender keinen Effekt auf die politische Einstellung. Beides sind Erkenntnisse, die im Widerspruch zu der Filterblasenthese stehen.

YouTube als Rabbit-Hole?

YouTube soll Personen immer extremere Inhalte vorschlagen und darum eine wahre Radikalisierungsmaschine sein, so die Rabbit-Hole-These, die eine Abwandlung der Filterblasenthese ist. Anhand von Verhaltensdaten konnte diese These von Forscherinnen um Annie Chen 2022 getestet werden 8. In der über 1100 Personen umfassenden Stichprobe gab es kaum Personen, die sich auf Inhalte oder Empfehlungen einließen, die extreme politische Ansichten enthalten. Ausnahmen waren fast ausschließlich Personen, die bereits Kanäle aus dem politisch extremen Spektrum abonniert hatten. Dass extreme Inhalte viel Aufrufe und Viewtime erhalten, lässt sich anhand der Studienergebnisse auf sogenannte Superkonsumenten zurückführen. Diese sehr kleine Personengruppe verbringt extrem viel Zeit auf YouTube und konsumiert dabei zumeist extreme Inhalte. Über die Hälfte der Aufrufe politisch extremer und alternativer Inhalte kamen außerdem durch Links auf externen Seiten zustande, wie etwa Facebook und sind damit auch nicht dem Algorithmus von YouTube zuzurechnen.

Die Idee, dass der Algorithmus von YouTube dafür verantwortlich ist, dass Personen ständig extremere Inhalte konsumieren, steht klar im Widerspruch zu den Ergebnissen dieser Studie.

Nur Einzelfälle? Übersichtsstudie

Der Eindruck dieser selektiv ausgewählter Studien deckt sich mit den Ergebnissen, die Birgit Stark mit ihrem Team 2021 in einer Überblicksstudie präsentiert 9. Ja, im Einzelfall kann es auf einzelnen Plattformen zu einer starken einseitigen Personalisierung kommen. Diese ist aber erstens kein Abbild der gesamten Informationsdiät einer Person. Zweitens nicht so umfassend, dass abweichende Ansichten überhaupt nicht durchdringen würden. Drittens selten ausschließlich oder auch nur überwiegend auf die Funktionsweise von Algorithmen zurückzuführen. Viertens betrifft es extrem wenige Personen. Daher eignet sich die Filterblasenthese nicht als Erklärung für große gesellschaftliche Trends, wie es immer noch häufig suggeriert wird.

Auch fünf Jahre nach der Diagnose der “blödesten Metapher über das Internet” gibt es keinen Anlass dazu, diese zu revidieren.

Jenseits der Filterblasen: Wege zu einer produktiveren Diskussion über soziale Medien

Vermutlich wird dies nicht das Ende der Geschichte der Filterblase sein. Doch um eine produktive öffentliche Debatte über soziale Medien zu führen, hilft uns diese Metapher in ihrer aktuellen Form nicht weiter. Dazu sind aus meiner Sicht zwei Veränderungen nötig: Da wir Filterblasen nur schwer aus dem öffentlichen Sprachgebrauch entfernen können, sollte der Begriff in der professionellen Kommunikation umgedeutet bzw. konkretisiert werden, um ihn zu entschärfen. Gleichzeitig brauchen wir dringend alternative Begriffe, die besser auf die tatsächlichen Probleme sozialer Medien hinweisen.

Axel Bruns plädiert dafür, das Verständnis von Filterblasen durch eine klarere Unterscheidung zwischen Verbindungen und Kommunikationspraktiken zu konkretisieren 10. Man sollte also nie nur Verbindungen oder isolierte Kommunikation betrachten, da so das tatsächliche Informationsangebot einzelner Personen aus dem Blick gerät und einseitige Tendenzen attestiert werden, die es in der Realität nicht gibt. Überzogene Interpretationen basieren oft auf stark polarisierten Twitter-Debatten, die wenig über die konsumierten Informationen aussagen und nur zeigen, dass es eine polarisierte Debatte gibt, aber nicht, was das bedeutet. Ein solches Verständnis könnte zu einer sachlicheren und weniger aufgeregten Debatte beitragen, bei der die vorhandenen Muster von Polarisierung in Kommunikation und Verbindungen thematisiert werden. Dies nimmt dem Begriff der Filterblase jedoch seine Einfachheit, welche ein wichtiger Grund für dessen erfolgreiche Karriere ist.

Der zweite Punkt betrifft die Etablierung anderer Begriffe, die das Geschehen auf sozialen Medien zutreffender beschreiben. Der australische Soziologe und Politikwissenschaftler Chris Bail hat mit seiner Forschung zu Twitter darauf aufmerksam gemacht, dass soziale Medien wie Prismen wirken 11. Kommunikation kann als Teil der Identitätsbildung verstanden werden, bei der wir permanent auf das Feedback unserer Umwelt reagieren. Soziale Medien verzerren dieses Feedback durch ihre Plattformlogik: Radikale Meinungen erhalten mehr Aufmerksamkeit, während moderate Positionen häufig von allen Seiten Gegenwind bekommen. Dies führt dazu, dass besonders diejenigen politisch aktiv sind, die Selbstwert und Status aus Onlineunterhaltungen beziehen. Moderate Personen ziehen sich dagegen zunehmend aus der politischen Onlinedebatte zurück. Übrig bleiben oft Trolle und Extremisten.

Dies hat jedoch wenig mit Filterblasen und Echokammern zu tun. Das Problem dieser Erklärung liegt darin, dass sie sich nicht auf einen einfachen Begriff reduzieren lässt, der mit der Alltagserfahrung der Nutzer übereinstimmt. Die Alltagserfahrung der Nutzer ist geprägt von polarisierten Debatten, in denen extreme Positionen sehr präsent sind. Daher erfordert die Diskussion über die Auswirkungen sozialer Medien eine differenziertere Betrachtung, die über die simplifizierenden Metaphern von Filterblasen und Echokammern hinausgeht.

Immer noch die dümmste Metapher über das Internet?

Die Debatte um Filterblasen hat etwas Gutes: Sie erinnert daran, welchen Anspruch wir an die Öffentlichkeit in einer Demokratie stellen. Die großen Medienplattformen haben bereits auf öffentlichen Druck reagiert und es wurden viele Regulierungen in diese Richtung vorgenommen. Radikale Inhalte erhalten auf YouTube heute weniger Sichtbarkeit als noch vor 2019. Google hat die Anzeige von Nachrichteninhalten stark verändert und bei Facebook wurde nach dem Skandal um Cambridge Analytica vieles umgewälzt, insbesondere die Adressierung von Zielgruppen für politische Werbung. Die Debatte zeigt also reale Auswirkungen, obwohl sie zu weiten Teilen eine Phantomdebatte ist.

Das Schlechte daran: Die Filterblase ist und bleibt die „dümmste Metapher über das Internet“. Die eigentlichen sozialen und gesellschaftlichen Probleme werden dadurch nicht sichtbar und es besteht die Gefahr, dass dadurch andere wichtige Aspekte aus der Aufmerksamkeit verschwinden. Es gibt zwar Anpassungen an den sozialen Medien, aber diese lösen nicht die Probleme, welche in diesem Kontext ständig vorgebracht werden.

Insgesamt hat sich also wenig verändert: Die Forschungsergebnisse weisen auf andere Ursachen hin, die die gesellschaftlichen Probleme mehr in den Fokus der Aufmerksamkeit rücken sollten. Trotzdem hält sich der Mythos der Filterblase hartnäckig und trübt das Verständnis der sozialen Medien nachhaltig.

Um die öffentliche Diskussion über Filterblasen und die Rolle sozialer Medien produktiver zu gestalten, sollten wir uns auf differenzierte Analysen und präzisere Begriffe konzentrieren. Dies könnte helfen, die tatsächlichen Herausforderungen und Chancen der sozialen Medien besser zu verstehen und anzugehen. Gleichzeitig ist es aber nur so möglich, die Grenzen zu erkennen: Soziale Medien sind ein wichtiger Teil unserer Gegenwart, aber nicht alle gesellschaftlichen Probleme lassen sich auf sie zurückführen und erst recht nicht alle durch sie lösen.

Share and Enjoy !

Shares
  1. Leider ist der Originalbeitrag auf Vice mittlerweile nicht mehr verfügbar. Wieder ein Dank an die WaybackMachine, die ein Backup des Artikels hat.
  2. Negroponte, N. (1996). Total digital: Die Welt zwischen 0 und 1 oder Die Zukunft der Kommunikation. Bertelsmann.*
  3. Sunstein, C. R. (2001). Republic.com. Princeton University Press.*
  4. Pariser, E. (2012). FILTER BUBBLE: Wie wir im Internet entmündigt werden. Carl Hanser Verlag GmbH.
  5. Habermas, J. (1990). Strukturwandel der Öffentlichkeit: Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Suhrkamp.*
  6. Jürgens, P., Stark, B., & Magin, M. (2014). Gefangen in der Filter Bubble? Search Engine Bias und Personalisierungsprozesse bei Suchmaschinen. In B. Stark, D. Dörr, & S. Aufenanger (Hrsg.), Die Googleisierung der Informationssuche. DE GRUYTER.* https://doi.org/10.1515/9783110338218.98
  7. Nyhan, B., et. al (2023). Like-minded sources on Facebook are prevalent but not polarizing. Nature, 620(7972), 137–144. https://doi.org/10.1038/s41586-023-06297-w
  8. Chen, Annie Y., et al. (2023) Subscriptions and external links help drive resentful users to alternative and extremist YouTube channels. Sci. Adv. 9, 10.1126/sciadv.add8080
  9. Stark, B., Magin, M., & Jürgens, P. (2021). Maßlos überschätzt. Ein Überblick über theoretische Annahmen und empirische Befunde zu Filterblasen und Echokammern. In M. Eisenegger, M. Prinzing, P. Ettinger, & R. Blum (Hrsg.), Digitaler Strukturwandel der Öffentlichkeit (S. 303–321). Springer Fachmedien Wiesbaden. https://doi.org/10.1007/978-3-658-32133-8_17
  10. Bruns, A. (2021). Echo chambers? Filter bubbles? The misleading metaphors that obscure the real problem. In M. Pérez-Escolar & J. M. Noguera-Vivo, Hate Speech and Polarization in Participatory Society, S. 33–48. Routledge.* https://doi.org/10.4324/9781003109891-4
  11. Bail, C. A. (2021). Breaking the social media prism: How to make our platforms less polarizing. Princeton University Press.*

Beitrag veröffentlicht

in

von

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*