Das Forscherteam identifizierte technologisch verfügbare, aber bisher weitgehend unerschlossene Möglichkeiten, die genutzt werden können, um das Bewerten von Inhalten und ihrer Qualität zu erleichtern und die Mechanismen der Algorithmen besser zu verstehen. Und das, ohne die ursprüngliche freiheitliche Grundphilosophie des Internets zu beschneiden. Auf dieser Basis erarbeitete das Forscherteam konkrete Empfehlungen und nutzte dabei zwei mögliche Ansätze aus den Verhaltenswissenschaften, mit denen das Individuum in seiner Online-Umgebung gestärkt werden könnte: Nudging (Stupsen) und Boosting (Stärken).

Der Nudging-Ansatz zielt darauf ab, das Verhalten von Menschen ohne explizite Regeln oder Verbote in eine bestimmte Richtung zu lenken, indem auf wichtige Informationen hingewiesen wird. Boosting möchte die Entscheidungskompetenz von Menschen so stärken, dass sie in der Lage sind, sich besser zurechtzufinden und bessere Entscheidungen zu treffen. Letztlich sei es aber wichtig, gleichzeitig verschiedene Ansätze zu verfolgen, um möglichst viele verschiedene Menschen zu erreichen.

Nudging könnte zum Beispiel zum Einsatz kommen, wenn es darum geht zu kennzeichnen, ob Inhalte bestimmte Qualitätskriterien erfüllen – so zum Beispiel, ob es ausreichende Quellangaben gibt oder nicht. Das würde einerseits daran erinnern, diese Inhalte gründlicher zu prüfen, und gleichzeitig einen Anreiz für Produzent*innen schaffen, die geforderten Kriterien der Plattform zu erfüllen. Einen Schritt weiter ginge das Hinzufügen von Hyperlinks zu überprüften Quellen. Vorbildcharakter könnte hier die Plattform Wikipedia mit ihren Quellangaben und Querverweisen haben. Sie ermöglichen den Leser*innen, den gesamten Kontext leichter zu verstehen. Twitter hat vor kurzem einen Schritt in diese Richtung gemacht und damit angefangen, bestimmte Tweets mit einem Hinweis zu markieren und zu einem Faktencheck zu verlinken – beispielsweise auch bei einem Tweet von Donald Trump zum Thema Briefwahl.

Nudges könnten auch zusätzliche Informationen darüber vermitteln, was andere tun, wie sie es bewerten und wie dies im Zusammenhang zu betrachten ist. So kann zum Beispiel die Anzahl der Likes ins Verhältnis zu den Leser*innen insgesamt gesetzt werden: 4.287 von 1.5 Millionen Leser*innen mochten diesen Artikel. Wurde ein Artikel zum Beispiel zwar 44.000 Mal angeklickt, aber – mit Blick auf die Verweildauer – nur 3.000 Mal bis zum Ende gelesen, könnte das ein Hinweis auf seine Qualität sein, die über die bloße Information zu den Klicks und Likes hinausgeht. Es hat sich bereits gezeigt, dass solche transparenten Angaben medizinische Entscheidungen verbessern können. Warum nicht auch im Internet. Dies könnte verhindern, dass sich Echokammern in Gruppen bilden und diese fälschlicherweise glauben, ihre Meinung sei im Internet weit verbreitet und akzeptiert.

Weiterlesen auf Seite 3

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein