Am 10. Januar 2025 gab Meta, das Mutterunternehmen von Facebook, Instagram und Threads, tiefgreifende Änderungen in seiner Moderationspolitik bekannt. In einem Video mit dem Titel „Mehr Freiheit und weniger Fehler“ kündigte Gründer Mark Zuckerberg an, dass das Unternehmen auf die Zusammenarbeit mit externen Fact-Checking-Organisationen verzichten und stattdessen ein Community-Notes-System einführen wird. Diese Entscheidung fällt in einer Zeit, in der sich die Technologieführungskräfte auf die Amtsannahme von Donald Trump als US-Präsident vorbereiten. Zuckerberg äußerte, dass Fact-Checker als „voreingenommen“ wahrgenommen werden, und das neue System solle die Meinungsfreiheit stärken. Über 3 Milliarden Nutzer werden von diesen Veränderungen betroffen sein, und es gibt bereits Bedenken, dass sie zu einer Zunahme von Fehlinformationen führen könnten.

Meta hat seit 2016 mit über 90 Fact-Checking-Organisationen zusammengearbeitet, unter anderem mit PolitiFact und AFP Fact Check. Das Unternehmen plant, seine Moderationsteams von Kalifornien nach Texas zu verlegen, um Vertrauen aufzubauen und wahrgenommene Bias zu reduzieren. Kritiker von Metas Entscheidung, die Zusammenarbeit mit Drittanbietern zu beenden, befürchten, dass dies die Rolle professioneller Fact-Checker untergräbt und die Verbreitung von Fehlinformationen begünstigen könnte. Einige prominente Persönlichkeiten der sozialen Medien haben die Neuerung jedoch als Schritt in Richtung einer Dezentralisierung der Informationen gewertet.

Neue Herausforderungen für die Plattform

Ab März wird Meta die Verträge mit Drittfaktoren beenden und ein crowdsourced Modell ähnlich den Community Notes von X einführen. Nutzer können künftig angeben, welche Beiträge ihrer Meinung nach irreführend sind. Dies geschieht in einem Modus, der darauf abzielt, dass eine Gruppe von Freiwilligen eine Übereinstimmung trifft, bevor eine Anmerkung veröffentlicht wird. Dennoch herrscht Unsicherheit über die globale Anwendung des neuen Systems und dessen Effektivität, da Studien zeigen, dass weniger als 10% der vorgeschlagenen Notizen auf X tatsächlich veröffentlicht werden.

Die Entscheidung von Zuckerberg, der Erbittertes über die „veraltete Medien“ als Ursache für eine weit verbreitete Wahrnehmung von Fehlinformationen ansieht, wurde möglicherweise durch den Druck von Trump beeinflusst. Frühere Forschung über Fehlinformationen, insbesondere im Vorfeld der US-Präsidentschaftswahl 2024, hat gezeigt, dass Nutzer mit extremen Ideologien anfälliger für falsche Informationen sind und dass negative Inhalte auffallend häufiger geteilt werden. Die Herausforderungen, die sich aus diesen Fehlinformationen ergeben, werden durch die aktuelle politische Landschaft und die sozialen Medien verstärkt, die sich seit den letzten Wahlen erheblich verändert haben.

Auswirkungen auf die Politik und Informationsverbreitung

Die Bedenken über die Integrität von Online-Informationen und die Bereitschaft der Plattformen, Fehlinformationen zu bekämpfen, sind mit den bevorstehenden Wahlen 2024 gestiegen. Frühzeitige Interventionen der Plattformen waren in der Vergangenheit effektiver als bloße Faktenprüfungen, um die Verbreitung von Fehlinformationen zu reduzieren. Studien aus dem Wahlzyklus 2020 haben gezeigt, dass pro-Trump-Accounts häufiger gesperrt wurden wegen der Verbreitung von weniger vertrauenswürdigen Inhalten, jedoch bleibt die langfristige Wirksamkeit der neuen Moderationsstrategien ungewiss.

Externe Experten empfinden, dass anhaltende Forschung und erhöhte Transparenz von Social-Media-Plattformen entscheidend sind, um den Herausforderungen von Fehlinformationen zu begegnen und ein faires Online-Umfeld zu gewährleisten. Die Lehren aus der Vergangenheit belegen die potenziellen Auswirkungen von Fehlinformationen auf demokratische Prozesse, und ein Schritt zur Minderung dieser Risiken könnte die Förderung von Medienkompetenz und kritischem Denken umfassen.

Weitere Informationen zu diesen Entwicklungen finden Sie bei Al Jazeera, Marketplace, und Disa.