Nach oben

zurück zur Übersicht

08.01.2025 | Medienkompetenz

Instagram, Facebook und Threads lassen wieder mehr Falschinformationen und Hassrede zu

In einer Pressemitteilung hat Meta angekündigt, das Fact-Checking-Programm auf den Plattformen Facebook, Instagram und Threads einzustellen. Statt professioneller Fact-Checking-Organisationen soll nun die Community darüber entscheiden, ob Aussagen wahrheitsgemäß sind oder nicht. Gleichzeitig wurden die Regeln für Hassrede auf der Plattform geändert und in einigen Bereichen deutlich abgeschwächt. Wir erklären, was sich genau ändert und was diese Änderungen für Nutzer*innen in Deutschland und der EU bedeuten.

Die von Meta angekündigten Änderungen werden zunächst ausschließlich in den USA gelten. Ob Meta eine Ausweitung der Änderungen auf andere Länder plant, ist aktuell unklar. Eine Formulierung in der Pressemitteilung des Konzerns, in der es heißt, dass die neuen Vorgaben „zuerst in den USA“ gelten sollen, lässt sich zumindest so interpretieren. Konkrete Ankündigungen oder sogar ein Datum für Änderungen auch in Deutschland gibt es bisher nicht.

Warum schafft Meta das Fact-Checking-Programm ab?

Seit 2016 können Inhalte auf Facebook, Instagram und Threads einem Faktencheck unterzogen werden. Dafür kooperierte Meta bisher mit externen Fachpersonen und Organisationen, die Beiträge auf die Korrektheit ihrer Inhalte überprüften. Wenn sich herausstellte, dass es sich bei den Inhalten um Falschinformationen handelte, wurde der Inhalt mit einem entsprechenden großflächigen Hinweis versehen. So sollte verhindert werden, dass Nutzer*innen weiterhin diese Falschinformationen sehen und für wahr halten könnten. Außerdem wurden solche Falschinformationen auch seltener bei anderen Nutzer*innen angezeigt, damit sie sich nicht weiter verbreiten.

Nun behauptet Meta, die Faktenchecker seien voreingenommen und hätten bestimmte Positionen zu unrecht als Falschinformationen gekennzeichnet. Für diese Behauptung werden keine konkreten Beweise vorgelegt. Das ist problematisch, da sich diese Begründung eines bekannten Narrativs rechts-autoritärer Kräfte bedient. Demnach seien die klassischen Medien und Faktenchecker nicht vertrauenswürdig und würden nur Informationen zulassen, die der eigenen Agenda dienten, während sie die freie Meinungsäußerung unterdrücken.

Als Lösung präsentiert Meta das Verfahren der Community Notes. Dabei melden sich freiwillige Nutzer*innen und nehmen an dem Community-Notes-Programm teil. Ihre Aufgabe ist es dann, Posts mit Hinweisen oder Richtigstellungen zu versehen, wenn sie der Meinung sind, dass der Inhalt falsche Informationen enthält. Diese Hinweise werden nicht sofort veröffentlicht, sondern zunächst von anderen Teilnehmer*innen des Community-Notes-Programms bewertet. Erst wenn genug andere Nutzer*innen den Inhalt für gut und richtig befunden haben, wird er dem Original-Inhalt als Hinweis hinzugefügt.

Explizites Vorbild für diese Art der Überprüfung ist die Plattform X (früher Twitter), die bereits seit einiger Zeit mit Community Notes arbeitet. Für die Community Notes bei Meta gibt es noch viele offene Fragen: Nach welchen Maßgaben werden Nutzer*innen für das Community-Notes-Programm ausgewählt? Wie stellt Meta sicher, dass Pluralität gewährleistet ist? Und sind Community Notes von Laien genauso zuverlässig und qualitativ hochwertig wie Faktenchecks von Fachpersonen?

Was bereits klar ist: Auch Posts, die Falschinformationen enthalten und mit einer Community Note versehen werden, sollen ab jetzt wieder uneingeschränkt angezeigt werden. Und die großflächigen Hinweise, dass es sich um Falschinformationen handelt, werden abgeschafft. Zukünftig wird man also zumindest in den USA Falschinformationen auf Facebook, Instagram und Threads leichter verbreiten und bekannte Falschinformationen schlechter erkennen können.

Was ändert Meta bei den Regeln zum Thema Hassrede?

Neben der Abschaffung des Fact-Checking-Programms ändert Meta auch die Regeln zu Hassrede auf Facebook, Instagram und Threads. Diese Änderungen könnten potenziell noch größeren Schaden anrichten. Aus der Auflistung, was von Meta als Hassrede verstanden wird, sind einige Inhalte gestrichen worden. Zum Beispiel erlaubt Meta nun explizit, dass homosexuelle oder transgeschlechtliche Personen als psychisch krank und abnormal verunglimpft werden dürfen. Als Begründung wird dafür der „politische und religiöse Diskurs rund um Homosexualität und Transidentität“ angegeben.

Die Begründung für die Aufweichung der Kategorien für Hassrede lässt aufhorchen. Laut Meta habe man die eigenen Regeln in der Vergangenheit nur unzureichend angewendet. Das habe dazu geführt, dass Meinungen und Positionen als Verstoß gegen die Community-Regeln gewertet wurden, die aber tatsächlich gar kein Verstoß gewesen wären. Meta nennt dafür auch eine Zahl: Angeblich seien durchschnittlich pro zehn moderierter Beiträge ein bis zwei Beiträge zu Unrecht beanstandet worden. Daher wolle man nun die Standards dafür, was auf der Plattform erlaubt ist, herabsenken und weniger moderieren. Außerdem sollen automatische Systeme, die Verstöße erkennen, nur noch für schwere Verstöße, wie zum Beispiel Abbildungen sexueller Gewalt gegen Kinder, zum Einsatz kommen. Verstöße wie Hassrede sollen nicht mehr automatisch erkannt werden, sondern von den Nutzer*innen der Plattform selbst gemeldet werden.

Dass automatische Systeme auf dem heutigen Stand der Technik nur unzureichend für die Moderation von Inhalten geeignet sind, wurde in der Vergangenheit unter anderem auch von klicksafe kritisiert. Nur ist es verwunderlich, warum die Lösung dieses Problems nicht eine Verbesserung der Moderation sein soll (zum Beispiel durch das Einstellen vieler geschulter Fachkräfte), sondern im Gegenteil das Herabsenken der Moderationsstandards.

Werden die Änderungen auch in Deutschland und der EU angewendet?

Bisher hat Meta angekündigt, die oben beschriebenen Änderungen in den USA umzusetzen. Es ist naheliegend zu vermuten, dass Meta diese Schritte aktuell gezielt auf die USA abgestimmt hat, um die Plattformen noch rechtzeitig vor seiner bald beginnenden zweiten Amtszeit an Donald Trump und seine Unterstützer*innen anzupassen.

Sollte Meta die Änderungen auch in der EU umsetzen, könnte das Strafzahlungen in Millionenhöhe nach sich ziehen. Der Digital Services Act sieht vor, dass sich „Very Large Online Platforms“ (VLOPS) wie Facebook, Instagram und Threads an den Strengthend Code of Practice on Disinformation halten. Darin ist vorgesehen, dass diese Plattformen ihren Nutzer*innen Hinweise zur Vertrauenswürdigkeit von Inhalten zur Verfügung stellen. Dafür sollen die Plattformen mit unabhängigen Dritten zusammenarbeiten. Hier werden unter anderem auch dezidiert Faktenchecker als mögliche Partner aufgeführt. Ob das von Meta angedachte System der Community Notes diese Vorgaben erfüllt, müsste dann von Meta dargelegt und von der EU überprüft werden. Wenn sich herausstellt, dass VLOPS ihrer Pflicht nicht nachkommen, effektiv gegen Falschinformationen vorzugehen, ist das ein Verstoß gegen ihre Sorgfaltspflicht, die sich aus dem DSA ergibt. Die Folge können Strafzahlungen in Millionenhöhe und ein Verbotsverfahren sein. Wie bereits oben erwähnt, ist ein Community-Notes-System auch auf der Plattform X in Verwendung. Ein Verfahren gegen X wurde von der EU-Kommission bereits eingeleitet, eine Entscheidung dazu steht bisher allerdings aus.

Auch eine Änderung der Standards bei Hassrede und ein Verzicht auf proaktive Moderation bei Verstößen in diesem Bereich könnte Meta in der EU teuer zu stehen kommen. Nicht zuletzt weil auch Kinder und Jugendliche die Plattformen nutzen, sind die Anbieter durch den DSA verpflichtet, angemessen gegen Inhalte wie Hassrede, Diskriminierung und Beleidigung vorzugehen.

Wie kann ich mich vor Fake News schützen?

Der beste Schutz vor Fake News ist der kompetente Umgang mit Online-Informationen. Mit diesen Tipps kann es gelingen:

  • Keine Panik – Lass dich nicht von deiner Angst, Wut oder Trauer bestimmen. Starke Emotionen machen dich empfänglicher für Fake News.
  • Quellen checken – Schaue bei seriösen Quellen nach. Wenn zwei bis drei Quellen dasselbe sagen, bist du sicherer. Nutze im Zweifel seriöse Faktenchecker-Seiten wie z.B. Mimikama oder Correctiv.
  • Informiert sein – Lerne die technologischen und wirtschaftlichen Hintergründe von Social-Media-Plattformen und Suchmaschinen kennen (z.B. was bewirken Algorithmen?). Durchschaue Manipulationstechniken, z.B. wenn Inhalte aus dem Kontext genommen werden oder wenn Gegenfragen auf andere Themen lenken.
  • Selbst denken – Frag dich, ob es wirklich sein kann, dass so etwas passiert. Hinterfrage Informationen, auch wenn sie von Bekannten oder Dir sympathischen Influencern geteilt werden. Hör auf deinen Verstand.
  • Don't share – Leite Falschmeldungen nie weiter. Bei bestimmten Falschmeldungen kannst du dich sogar strafbar machen. Desinformation und andere Verstöße kannst du bei den Plattformen direkt, bei Beschwerdestellen und bei Trusted Flaggern melden.

Quelle: klicksafe (Link zu externer Webseite)


Weitere Meldungen

Medienkompetenz |

In vier Wochen findet weltweit der Safer Internet Day statt. An diesem Tag stehen wir zusammen für ein besseres Internet für Kinder ein. Bereits über…

Weiterlesen
Medienkompetenz |

Push-Nachrichten, ständige Erreichbarkeit und eine scheinbar unendliche Flut an Inhalten sind für viele zu Stressfaktoren geworden. Helfen kann da…

Weiterlesen