Freie Meinungsäußerung vs. schädliche Falschinformation: Wie Menschen Dilemmas bei der Moderation von Online-Inhalten lösen
Studie deckt Faktoren auf, welche die Entscheidungen der Menschen beeinflussen, schädliche Falschinformationen zu unterbinden. Die Moderation von Online-Inhalten ist ein moralisches Minenfeld, insbesondere dann, wenn freie Meinungsäußerung und die Vermeidung von Schäden durch Falschinformationen aufeinanderprallen. Ein Forscherteam des Max-Planck-Instituts für Bildungsforschung, der Universität Exeter, der Vrije Universiteit Amsterdam und der Universität Bristol hat untersucht, wie die öffentlichkeit mit solchen moralischen Dilemmas umgehen würde. Sie fanden heraus, dass die Mehrheit der Befragten Maßnahmen ergreifen würde, um die Verbreitung von Falschinformationen zu kontrollieren, insbesondere wenn diese schädlich sind und wiederholt verbreitet werden. Die Ergebnisse der Studie können genutzt werden, um kohärente und transparente Regeln für die Moderation von Inhalten aufzustellen, die von der breiten öffentlichkeit als legitim akzeptiert werden. Die Frage der Moderation von Inhalten auf Social-Media-Plattformen rückte 2021 in den Mittelpunkt, als große Plattformen wie Facebook und Twitter die Konten des damaligen US-Präsidenten Donald Trump sperrten. Die Debatten gingen weiter, als die Plattformen mit gefährlichen Falschinformationen über COVID-19 und die Impfstoffe konfrontiert wurden und nachdem Elon Musk im Alleingang die Twitter-Richtlinie zum Umgang mit irreführenden Informationen über COVID-19 umgestoßen und zuvor gesperrte Konten wieder freigeschaltet hatte.



