Eine Studie zeigt, dass YouTube bei seinen Empfehlungen offenbar einen gut funktionierenden Algorithmus hat, der Desinformationen nicht pusht.

YouTube – „Kurz mal ein Video ansehen“ und schön hängt man eine gewisse Zeit fest. Zumindest geht es mir meist so. Ich stolpere dann von einem Video ins nächste. Die Empfehlungen passen aber auch oftmals wirklich gut.

Umso erfreulicher ist es, dass YouTube in puncto Algorithmus augenscheinlich etwas richtig gemacht hat. In einer gemeinsamen Studie „Empfehlungen in Krisenzeiten – Welche Inhalte machen die Empfehlungsalgorithmen von YouTube sichtbar?“ haben die Medienanstalt Berlin-Brandenburg (mabb), die Senatskanzlei Berlin, die Bayerische Landeszentrale für neue Medien (BLM), die Landesanstalt für Medien NRW und die Medienanstalt Rheinland-Pfalz untersucht, wie Empfehlungen bei YouTube in Krisenzeiten funktionieren. Analysiert wurde, ob bei Themen wie „Covid-19-Pandemie“, „Klimawandel“ oder „Flüchtlinge“ desinformierende Videos empfohlen werden oder ob die Empfehlungen vertiefend informierte Meinungsbildung ermöglichen.

Anhand von systematischen Videoaufrufen wurde im Rahmen der Studie erforscht, inwieweit die nicht personalisierten Empfehlungen von YouTube dazu beitragen, dass Nutzerinnen und Nutzer auf Quellen und Informationen hingewiesen werden, die journalistische Sorgfaltspflichten einhalten und von wissenschaftlichem Konsens unterstützt werden.

„Die gute Nachricht ist: Der YouTube-Empfehlungsalgorithmus ist kein Desinformations-Katalysator. Lediglich sechs Prozent der empfohlenen Inhalte, die untersucht wurden, stammen aus potenziell desinformierenden Kanälen“, so mabb-Direktorin Dr. Anja Zimmer. „Gleichzeitig deutet unsere Studie darauf hin, dass der Algorithmus selten Nischenangebote oder Themen vertiefende Inhalte empfiehlt. Etablierte Medienanbieter werden überdurchschnittlich oft sichtbar gemacht. Dieser Aspekt sollte im Rahmen des Engagements zur Sicherung und Förderung von Meinungsvielfalt auf Medienplattformen diskutiert werden, da noch deutliches Potenzial für mehr Vielfalt in den Plattformen steckt. Die Herausforderung ist, den Nutzerinnen und Nutzern die Vielfalt der Informationsangebote und Perspektiven besser zu präsentieren. Und dabei noch weniger Desinformation zu empfehlen.“

Zentrale Ergebnisse der Studie

YouTubes-Empfehlungsalgorithmus präsentiert kaum desinformierende Inhalte.

Bei den kontrovers diskutierten Themen „Covid-19“, „Klimawandel“ und „Flüchtlinge“ als Startpunkt der Untersuchung wurden nur sechs Prozent der Videos, die der Algorithmus anschließend empfohlen hat, als potenziell desinformierend eingestuft.

Themenvertiefung wird selten empfohlen

Gleichzeitig enthielten nur insgesamt elf Prozent der erfassten Empfehlungen Videos zu den als Startpunkt gewählten Themen „Covid19“, „Klimawandel“ und „Flüchtlinge“.

YouTube-Algorithmus setzt auf eine begrenzte Palette populärer Kanäle

69 Prozent aller erfassten Empfehlungen bewerben Videos von nur 61 Kanälen. Diese umfassen viele öffentlich-rechtliche und etablierte private Medienanbieter. Auf Nischenprogramme und Inhalte weniger bekannter Anbieter wird sehr selten hingewiesen.

Die Studienergebnisse deuten somit darauf hin, dass YouTubes Empfehlungen weniger der inhaltlich vertiefenden, als vielmehr einer thematisch breiten Information der Nutzerinnen und Nutzer anhand etablierter Medienangebote und -anbieter dienen. Desinformatives bleibt oft außen vor.

Über die Studie

YouTube ist mit 7,2 Millionen sich hier täglich informierenden Nutzerinnen und Nutzern mittlerweile eine wichtige Informationsquelle für die Bevölkerung in Deutschland (vgl. Vielfaltsbericht der Medienanstalten 2020). Ein zentraler Service der Video-Sharing-Plattform sind die Empfehlungen des Algorithmus. Vor dem Hintergrund der Corona-Pandemie, gesellschaftspolitischer Debatten über Klimawandel und Migration sowie von Wahlen auf Bund- und Länderebene ist es aktuell besonders relevant, wie YouTube mit desinformierenden Inhalten umgeht. Die Studie wurde von Kantar, Public Division und der Rheinisch-Westfälischen Technischen Hochschule Aachen (RWTH) durchgeführt.

Die Studie selbst kann man hier online abrufen oder downloaden: Youtube-Algorithmen in Krisenzeiten

Beruhigend zu wissen, dass YouTube-Besuche weiterhin nicht dazu führen, dass man in eine Desinformations-Schleife gerät, sondern gut passende Empfehlungen erhält.

[mk_ad]

Das könnte dich auch interessieren: Facebook will eine Milliarde Dollar in den Journalismus stecken

Quelle: Presseportal

Unterstütze jetzt Mimikama – Für Wahrheit und Demokratie! Gründlicher Recherchen und das Bekämpfen von Falschinformationen sind heute wichtiger für unsere Demokratie als jemals zuvor. Unsere Inhalte sind frei zugänglich, weil jeder das Recht auf verlässliche Informationen hat. Unterstützen Sie Mimikama

Mehr von Mimikama

Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)