Symbolbild

Polarisierung, Verschwörungstheorien, Fake News: Für demokratische Gesellschaften ist es eine bedenkliche Entwicklung, wenn intransparente Algorithmen einiger weniger Konzerne entscheiden, was wir im Internet zu sehen bekommen. Dabei könnten wir das Internet auch so gestalten, dass Autonomie und Transparenz gefördert und damit das positive Potenzial des Internets verstärkt wird. Ein Forscherteam des Max-Planck-Instituts für Bildungsforschung in Berlin, der University of Bristol und der Harvard Law School hat sich mit diesem Thema aus verhaltenswissenschaftlicher Perspektive beschäftigt und Vorschläge für Interventionen zugunsten eines demokratischeren Internets erarbeitet.

Da taucht plötzlich in unserem Feed auf YouTube, Facebook oder Twitter ein Video auf, in dem jemand von Geheimabsprachen in der Politik, von Verschwörungen der Medien oder gefälschten Studien berichtet. Alles untermauert er oder sie mit angeblichen Fakten. Das Video hat hunderttausende Klicks und scheint sich weltweit zu verbreiten. Und einer größeren Zahl der Zuschauer*innen scheint es zu gefallen, sie haben „Daumen nach oben“ hinterlassen. Doch was heißt das jetzt genau? Ist es deshalb glaubwürdig? Wie viele der Zuschauer*innen haben sich überhaupt das gesamte Video angesehen, wie viele sind abgesprungen? Und warum kriege ich das Video überhaupt zu sehen? Die Plattform kennt viele der Antworten, aber wir erhalten diese Informationen nicht. Auch sonst gibt es keine weiterführenden Informationen, die uns helfen könnten, den Inhalt, seine Qualität und Glaubwürdigkeit einzuschätzen.

Um sich über die aktuelle Nachrichtenlage zu informieren, greifen mehr als die Hälfte (55 Prozent) der weltweiten Internet-Nutzer*innen heute auf soziale Medien oder Suchmaschinen zurück, so das Ergebnis des Reuters Institute Digital News Report 2019. Die öffentliche Meinung wird somit zu einem erheblichen Teil durch Online-Inhalte geprägt, die wiederum von Algorithmen kuratiert werden. „Mit dem Ziel, die Nutzer*innen möglichst lange bei Laune und somit auf der jeweiligen Plattform zu halten, geht es darum, zu unterhalten und ein Wohlfühlgefühl zu etablieren. Daher gibt es bei vielen Plattformen wohl auch keine Bewertungsknöpfe, die Ablehnung gegenüber Inhalten zum Ausdruck bringen. Es wird das Gefühl vermittelt: Du hast recht. Das mag beim Teilen von privaten Inhalten wie Urlaubsgrüßen harmlos sein, bei radikalen Meinungen und der Verbreitung von Unwahrheiten verzerrt es jedoch das Bild“, sagt Co-Autor Stephan Lewandowsky, Professor für Kognitive Psychologie an der University of Bristol.

Ein weiteres Problem ist, dass News-Feed-Algorithmen den Nutzer*innen nur die Inhalte zeigen, denen sie – basierend auf ihrem vergangenen Nutzerverhalten – eher zustimmen würden. Andere Standpunkte bekommen sie meist gar nicht erst zu sehen. So bilden sich Netzwerke von gleichgesinnten Nutzer*innen, die die gleiche Meinung teilen, diese verstärken und so die Illusion bekommen, dass ihre eine Mehrheitsmeinung sei, auch wenn das in Relation zu allen anderen Nutzer*innen nicht stimmt.

Doch wie schaffen wir es, Fake News von Fakten zu unterscheiden? Und wie müsste das Internet aussehen, um uns dabei zu unterstützen? „Wir schlagen Interventionen vor, die in erster Linie darauf abzielen, die individuellen Internetnutzer zu ermächtigen, informierte und autonome Entscheidungen in Online-Umgebungen zu treffen – im besten Fall, ohne sich auf externe Faktenprüfer verlassen zu müssen. Schließlich beeinflusst die Architektur der Online-Umgebungen unser Verhalten. Wenn wir das Internet anders denken wollen, müssen wir das menschliche Verhalten daher verstehen und bei der Gestaltung des Internets berücksichtigen“, sagt Philipp Lorenz-Spreen, Erstautor und Wissenschaftler am Max-Planck-Institut für Bildungsforschung.

Weiterlesen auf Seite 2

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein