Weißer Hase vor dem Rabbit Hole YouTube.

YouTube is Not a Rabbit Hole, Stupid!

Lesedauer: 7 Minuten

Ähnlich wie die Rede von Filterblasen ist die These des Rabbit Hole auf YouTube mittlerweile in der Alltagssprache angekommen. Jedoch handelt es sich in beiden Fällen um Erklärungen, die gesellschaftliche Prozesse alleine auf der Grundlage der technischen Funktion zu erklären versuchen1. Im Falle von YouTube werden gesellschaftliche Radikalisierungstendenzen den Empfehlungsalgorithmen zugeschrieben, die Nutzer angeblich zu immer extremeren Inhalten leiten.

Aktuelle Untersuchungen entkräften diese Behauptung jedoch. Eine 2022 erschienene Studie2 zeigt, dass die Rolle des Empfehlungssystems von YouTube weit weniger relevant für die Verbreitung von radikalen Inhalten ist, als es das gerne bediente Narrativ des YouTube-Rabbit-Hole suggeriert. Dagegen wird die Relevanz von externen Links und Abonnements deutlich. Dadurch wird klar, dass nicht alleine die Technik für die Radikalisierung verantwortlich ist und dass wir uns stärker auf andere Erklärungsmuster abseits des gerne bedienten Technikdeterminismus konzentrieren sollten.

Es lohnt sich jedoch, einen vertieften Blick darauf zu werfen, wie und warum solche Erklärungen so plausibel klingen und wie man sie empirisch überprüfen kann.

Von Technik bestimmtes Leben in Blasen

Die Rede von der Blase, in der wir alle leben, ist mittlerweile so tief in die Alltagssprache eingedrungen, dass ihre Richtigkeit kaum noch hinterfragt wird. Eli Pariser hat 2011 die Grundlage für das Narrativ geliefert, welches sich seit der Frühzeit der sozialen Medien stetig verfestigt hat: Algorithmen sperren Nutzer in individuelle Informationsuniversen, indem sie das Internet zunehmend personalisieren. Hier angekommen nimmt man nur noch das wahr, was den eigenen Interessen und dem eigenen Standpunkt entspricht. Das Bröckeln der Demokratie ist demnach nur die logische Konsequenz, da uns die Wahrnehmung und die Auseinandersetzung mit anderen Meinungen verloren geht.

Resonanz findet diese Erklärung mittlerweile in allen Teilen der Gesellschaft. Von Journalisten wird sie gerne als kritische Pointe zum Stand der gegenwärtigen Medienlandschaft bedient und in Alltagssituationen wird durch sie die eigene Weltwahrnehmung sowie die anderer erklärt. Die Politik nutzt sie, um gesellschaftliche Schieflagen auf Ursachen zurückzuführen, die außerhalb der politischen Handlungskompetenz liegen. Natürlich braucht es zur Behebung neue Kompetenzen für eben jene Politik.

Auch die Wissenschaft ist früh auf dieses Erklärungsmuster aufgesprungen. Einerseits kam es zu einer unhinterfragten Übernahme der Filterblasenthese. Und das, obwohl bereits die technikdeterministische Anlage Kritik hätte hervorrufen müssen. Andererseits begann auch eine kritische Auseinandersetzung mit der Filterblasenthese. Die Entkräftung der technikdeterministischen Erklärungen erfolgte schrittweise durch empirische Untersuchungen, etwa der Suchergebnisse von Google oder wahrgenommener Informationen auf sozialen Medien. In diese Reihe gliedert sich die Forschung zur Rolle von Videovorschlägen auf YouTube für die Aufrufe radikaler Videos.

YouTube als Rabit Hole. Oder: Warum Alice ständig Videos von Alex Jones ansieht.

Ein Rabbit Hole (zu deutsch Kaninchenbau, wir bleiben also lieber bei der englischen Variante) ist die Steigerung der Filterblasenthese, in das Nutzer auf YouTube fallen. Angelehnt an die Erfahrung von Alice bei ihrer Reise ins Wunderland, führen die Algorithmen der Plattform ihre Nutzer immer tiefer in eine surreale Parallelwelt. Neben harmlosen Varianten wie der Heimwerker-, Barista- und Jonglagewelten gibt es auch Themenkomplexe, die aus gesellschaftspolitischer Sicht problematisch sind. Hierunter fallen extreme politische Ansichten oder Verschwörungserzählungen. Entscheidend ist dabei die Steigerungslogik, wonach die wahrgenommenen Inhalte stetig extremer werden. Geraten zu viele Personen durch Algorithmen in die Kaninchenhöhle der Verschwörer, dann kann das negative Folgen für die Demokratie haben, so die Befürchtung.

Die Geschichte von dem Kaninchenloch YouTube hat jedoch einen Haken: Die eingangs erwähnte Studie zeigt etwas völlig anderes. Die überwiegende Mehrzahl der Aufrufe extremer YouTube-Videos kommt nicht dadurch zustande, dass Personen Videos vorgeschlagen werden, die bisher kein eindeutiges Interesse an solchen Inhalten gezeigt haben. Das bedeutet, es lässt sich kaum Radikalisierung durch Videovorschläge beobachten.

Die Rolle von Superkonsumenten

Die meisten Aufrufe und die meiste Ansichtszeit radikaler Videos lässt sich auf eine kleine Anzahl von Personen zurückführen. Sogenannte Superkonsumenten verbringen generell um ein Vielfaches mehr Zeit auf YouTube. Der Durchschnitt liegt hier bei bis zu 29 Stunden pro Woche. Der Durchschnitt aller Nutzer liegt dagegen bei 0.2 Stunden pro Woche. Superkonsumenten sind etwa 1 % der Nutzer, die aber 80 % der Aufrufe und Ansichtszeit radikaler Videos ausmachen.

Die Rolle von Videovorschlägen

Vorgeschlagen werden extreme Videos so gut wie nur Personen, die bereits Kanäle mit ähnlichen Inhalten abonniert haben oder bereits ein solches Video betrachten. Von nicht extremen Videos, die in der Studie 97 % aller Aufrufe ausmachten, gibt es kaum Verweise auf radikale Inhalte. Bei extremen Inhalten werden andere extreme Videos zwar deutlich häufiger vorgeschlagen, allerdings finden sich ähnlich viele Vorschläge zu anderen Inhalten unter den vorgeschlagenen Videos. Von einer einseitigen Tendenz in Richtung radikaler Videos kann also nicht gesprochen werden.

Dieses Muster wiederholt sich für die Frage, welche Videovorschlägen Nutzer tatsächlich folgen. Wenn bereits extreme Videos geschaut werden oder extremen Kanälen gefolgt wird, dann wird Vorschlägen zu extremen Videos auch in etwas mehr als der Hälfte der Fälle gefolgt. Andere Personen folgen diesen Vorschlägen kaum.

Externe Links als wichtiger Faktor

Als besonders wichtiger Weg zu extremen Videoinhalten haben sich externe Links herausgestellt. Diese sind für jeden Videotyp die wichtigste Quelle. Etwa die Hälfte der Aufrufe extremer Videos kommt durch externe Quellen zustande. Eine große Rolle spielen dabei sowohl die bekannten sozialen Medien als auch alternative soziale Medien. Doch auch Suchmaschinen und E-Mail tragen zu den Aufrufen radikaler Videos bei.

Wer fällt in das Rabbit Hole?

Radikalisierung durch den Empfehlungsalgorithmus geschieht nach der Rabbit-Hole-These als Prozess, in dem Nutzer im Zeitverlauf auf immer extremere Videos geführt werden. Ob ein solcher Ablauf tatsächlich der Normalfall ist, lässt sich anhand der präsentierten Daten gut abschätzen.

Um von einem Rabbit Hole sprechen zu können, müssen drei Kriterien erfüllt sein: Es muss einer Empfehlung zu einem extremen Video gefolgt werden, diese Empfehlung muss zu einem noch extremeren Video führen und die Person darf dem Kanal des vorgeschlagenen Videos nicht bereits folgen.

In den Zahlen der eingangs erwähnten Studie sieht das wie folgt aus:

  1. Ein Teilnehmer folgt einer Empfehlung zu einem alternativen oder extremen Video:794-mal vorgekommen (0.16 % aller Videobesuche)bei 65 Teilnehmern (6.05 %)
  2. Die gefolgte Empfehlung führt zu einem extremeren Video:376-mal vorgekommen (0.08% aller Videobesuche)bei 53 Teilnehmern (4,95 %)
  3. Der Teilnehmer folgt dem Kanal des vorgeschlagenen Videos nicht:108-mal vorgekommen (0.02 % aller Videobesuche)41 Teilnehmer (3,82 % aller Nutzer)

Es zeigt sich also, bereits die kleinstmögliche Sequenz eines Rabbit Holes kommt sehr selten vor. Der Rabbit-Hole-These scheint damit ein ähnliches Schicksal wie der Filterblasenthese beschieden: eine plausibel klingende Alltagserklärung für die Folgen personalisierter Inhalte, die der wissenschaftlichen Überprüfung nicht standhält.

Wenn Alice also ständig bei Alex Jones abhängt, dann ist es wahrscheinlicher, dass sie seine Einstellungen teilt oder ihr Freunde dessen Videos schicken und nicht, weil sie durch die technische Architektur von YouTube dazu verleitet wurde.

Wenn nicht Algorithmen, was dann?

Die Behauptung der gesellschaftlichen Radikalisierung durch den Einsatz von Algorithmen lässt sich auf der Grundlage dieser Studie nicht aufrechterhalten. Was nicht bedeutet, dass soziale Medien wie YouTube keine Rolle für die politische Meinungsbildung und für Radikalisierungsprozesse spielen. Es braucht jedoch andere Erklärungen. Zwei Mechanismen der Informationsauswahl können hier Einsicht bringen: Muster der Informationsauswahl (selective exposure) und die Rolle des sozialen Umfelds.

Akteur > Algorithmus: Personen haben eine gewisse Neigung dazu, welche der angebotenen Informationen sie wahrnehmen. Diese Wahrnehmungsverzerrung zeigt sich in der Studie etwa darin, dass Personen, die extreme Kanäle abonniert haben, auch Vorschlägen extremer Videos deutlich häufiger folgen. Die Informationsauswahl ist also ein Ausdruck persönlicher Einstellungen und Interessen. Es ist wahrscheinlicher, dass Informationen ausgewählt werden, die in Übereinstimmung mit der eigenen Weltsicht stehen. Eine mögliche Erklärung dafür ist der Wunsch danach, kognitive Dissonanz zu vermeiden. Eine andere ist, dass Quellen mit ähnlicher Einstellung als glaubwürdiger bewertet werden.

Gesellschaft > Algorithmus: Dass das soziale Umfeld für den Konsum radikaler Inhalte eine wichtige Rolle spielt, wird durch die hohe Zahl der Aufrufe über externe Links deutlich. Etwa die Hälfte der Videoaufrufe mit extremem Inhalt kommt so zustande. Die Studie liefert hauptsächlich Hinweise auf soziale Medien und alternative soziale Medien, aber auch E-Mails. Darin zeigt sich die hohe Relevanz von Empfehlungen durch andere Personen im Verhältnis zu denen von Algorithmen, gerade für extreme Inhalte. Die wichtige Rolle alternativer sozialer Medien wie Parler zeigt den Zusammenhang von sozialem Kontext und den darin geteilten Informationen. Obwohl die Studie hier wenig weitere Differenzierung erlaubt, ist es naheliegend, dass Meinungsführer in diesen Kontexten eine wichtige Rolle für die Verbreitung dieser extremen Inhalte spielen.

Wer hat denn schon wieder am Rabbit Hole geschraubt?!

Die Funktionsweise digitaler Medien ändert sich rapide, weshalb stetige Wiederholungen der Untersuchungen geboten sind und sich Ergebnisse durchaus verändern können. Was vor der Umstellung eines Algorithmus stimmte, kann danach ganz anders sein. Aussagen können daher nur für einen gewissen Zeitraum getroffen werden. Was die Autoren auch herausstellen, ist, dass die Veränderungen des Algorithmus von YouTube 2019 eine Reaktion auf die Kritik war, YouTube sei eine Radikalisierungsmaschine. Trotzdem weisen die Ergebnisse der Studie darauf hin, dass die Auswirkungen von Änderungen am Algorithmus nur eine beschränkte Wirkung haben, da andere Mechanismen deutlich größeren Einfluss haben.

It´s still Not the Technology, Stupid!

Alice, die versehentlich in den Kaninchenbau gerät und im Moment des Falls keine Chance zur Umkehr hat, ist eine treffende Analogie für die Idee des Technikdeterminismus. Diese Vorstellung entspricht jedoch ebenso wenig der Realität wie die Geschichte von Lewis Carroll. Die eindimensionale Verengung der Erklärung sozialer Phänomene auf die Architektur digitaler Medien verstellt den Blick für den sozialen Kontext der Personen, die auf diesen Plattformen agieren. Viel mehr noch, sie verzerrt unser Verständnis der sozialen Verhältnisse grundlegend, da wir an Stellen nach Erklärungen suchen, wo keine zu finden sind. Ergiebiger sind die Rollen des sozialen Kontexts und der Informationsauswahl, was beides zusätzlich stabiler ist als die Architektur der Plattformen.

 

Share and Enjoy !

Shares
  1. „It’s Not the Technology, Stupid!“ ist der Titel eines Artikels von Axel Bruns, in welchem er die Forschungsergebnisse zu Filterblasen und Echokammern präsentiert und bewertet. Das Resümee fällt ähnlich deutlich aus, wie der Titel vermuten lässt: Technik alleine bietet keine tragfähigen Erklärungen für gesellschaftliche Radikalisierungsprozesse, sondern lenkt von den sozialen Mechanismen ab.

    Bruns, A. (2019). It’s Not the Technology, Stupid: How the ‘Echo Chamber’ and ‘Filter Bubble’ Metaphors Have Failed Us. 12. https://snurb.info/files/2019/It’s Not the Technology, Stupid.pdf

  2. Chen, A. Y., Nyhan, B., Reifler, J., Robertson, R. E., & Wilson, C. (2022). Subscriptions and external links help drive resentful users to alternative and extremist YouTube videos (arXiv:2204.10921). arXiv. http://arxiv.org/abs/2204.10921

    Die Studie ist bisher nur auf dem Preprintserver ArXiv erschienen und sollte daher mit etwas Vorsicht interpretiert werden. Die Ergebnisse stehen aber in Übereinstimmung mit anderen Studien zu Filterblasen auf sozialen Medien und sind daher in der Tendenz keine Überraschung.


Beitrag veröffentlicht

in

von

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*