Nach oben

zurück zur Übersicht

31.07.2024 | Medienkompetenz

Algospeak – Was bedeuten die Codes und Emojis auf TikTok und Co.?

Plattformen wie TikTok oder Instagram prüfen im Hintergrund automatisiert Beiträge und Kommentare, die gepostet werden. Dadurch soll gewährleistet werden, dass keine Inhalte sichtbar sind, die gegen die Plattform-Richtlinien verstoßen. Um diese Filter zu umgehen, hat sich in den letzten Jahren eine eigene Sprache entwickelt: Algospeak. Wir erklären, was Algospeak ist und bei welchen codierten Begriffen und Emojis Sie besonders aufmerksam sein sollten.

Aus Sex wird Seggs, aus Lesbian wird Le$Bean bzw. Le Dollar Bean und das harmlose Auberginen-Emoji wird zum männlichen Genital. Wer viel durch Social Media scrollt, hat vielleicht schon seltsame Begriffe oder Emojis gesehen, deren Bedeutungen sich nicht sofort erschließen. Dahinter steckt Algospeak, eine Codierung von sensiblen Wörtern, die normal geschrieben als problematischer Inhalt erkannt werden könnten.

Was ist Algospeak?

Algospeak ist ein Kofferwort aus „Algo“ für „Algorithmus“ und „Speak“, dem englischen Wort für „Sprechen“. Algospeak wird als Kommunikationsstrategie in sozialen Medien eingesetzt, um Plattformrestriktionen zu verhindern. Begriffe werden umformuliert, Silben vertauscht oder Zahlen statt Buchstaben eingesetzt. Auch das Verwenden von bestimmten Emojis fällt unter Algospeak. Eine Grafik mit Beispielen finden Sie weiter unten im Artikel.

Mithilfe von Algospeak gegen „Shadowbans“

Viele Plattformen wie zum Beispiel TikTok versuchen durch das automatisierte Erkennen bestimmter Wörter zu verhindern, dass Nutzer*innen Hassrede, Beleidigungen, sexualisierte oder extremistische Beiträge angezeigt werden. Dabei kam es in der Vergangenheit bereits vor, dass auch Inhalte verborgen wurden, die gegen keine Richtlinien verstießen. Eine Recherche von NDR, WDR und Tagesschau konnte 2022 zeigen, dass unter anderem Kommentare mit Begriffen wie „schwul“, „homosexuell“, „LGBTQ“, „Auschwitz“ und „Nationalsozialismus“ teilweise nicht angezeigt oder blockiert wurden. Und das, obwohl sie inhaltlich nicht problematisch waren oder sogar aufklärenden Charakter hatten. Die Nutzer*innen wurden über die Beschränkungen ihrer Beiträge nicht informiert. Hierbei spricht man von sogenannten „Shadowbans“. Gepostete Inhalte sindfür Ersteller*innen zwar noch sichtbar, aber nicht für andere Nutzer*innen. Die Beiträge haben also weniger Reichweite, meist ohne dass dies vom Plattformbetreiber kenntlich gemacht wird. 

Um Shadowbans oder gar das Löschen von Beiträgen zu verhindern, haben Nutzer*innen angefangen, Begriffe abzuwandeln. Durch einen Artikel der Washington Post im Jahr 2022 erlangte der Begriff „Algospeak“ für dieses Verhalten größere Bekanntheit. Einige Algospeak-Begriffe sind leicht zu „decodieren“. Lediglich ein Buchstabe wird ausgetauscht, beispielsweise „D1CK“ (dick, engl. für Schwanz), „Le$bian“ (lesbian, engl. für lesbisch) oder „Depressi0n“ (Depression). Anders verhält es sich, wenn ein bekanntes Wort für etwas ganz anders steht. So verwendeten beim #MascaraTrend im Jahr 2023 Nutzer*innen auf TikTok das Beautyprodukt als Codewort, um über ihre Erfahrungen mit sexuellem Missbrauch zu berichten.

Algospeak in problematischen und antidemokratischen Kontexten

Nicht immer wird Algospeak genutzt, um über sensible Themen oder kontroverse Inhalte aufzuklären und sich dazu auszutauschen. Einige Codewörter und Emojis werden eingesetzt, um Personen sexuell zu belästigen, selbstverletzendes Verhalten zu normalisieren oder um gezielt Hass und rechtsextremistische Inhalte zu verbreiten.

Übersicht mit Beispielen zu Algospeak

Auf der Grafik haben wir einige Beispiele für Sie zusammengetragen. Sie können die Übersicht herunterladen und ausdrucken.

Ist Algospeak wirklich sinnvoll?

Nutzer*innen erhoffen sich durch Algospeak nicht in ihrer Reichweite eingeschränkt zu werden. Dabei ist allerdings nicht klar, ob dieses Vorgehen überhaupt nötig oder effektiv ist. Plattformen gewähren der Öffentlichkeit bisher keinen umfassenden Einblick, wie die automatische Erkennung von Inhalten funktioniert und nach welche Kriterien genau moderiert wird. Das führt dazu, dass Nutzer*innen darüber spekulieren müssen, welche Inhalte betroffen sein könnten. Und unter Umständen auch dazu, dass eine Übervorsichtigkeit entsteht, in der Dinge codiert werden, obwohl dafür gar kein Anlass besteht.

Fraglich ist auch, wie effektiv ein codiertes Schreiben ist, um automatische Erkennung zu verhindern. Denn es ist anzunehmen, dass ein Filter, der nach bestimmten Wörtern sucht, auch problemlos um neue Begriffe erweitert werden kann. Falls eine Plattform wirklich restriktiv gegen einen Inhalt vorgehen möchte, würden sicherlich auch die allgemein bekannten Algospeak-Begriffe zu diesem Thema erkannt. So löst eine Suche nach „Sewer Slide“ bei TikTok zum Beispiel mittlerweile dieselben Hinweise auf Suizid-Hilfestellen aus wie eine Suche nach dem Begriff „Suicide“.
Durch den Einsatz von Künstlicher Intelligenz sind darüber hinaus auch semantische Zusammenhänge automatisch erkennbar. Ob der Begriff „Auschwitz“ im Rahmen einer Holocaustleugnung oder in einem Post zum Gedenktag der Befreiung des Konzentrationslagers verwendet wird, wäre dadurch auch bei automatischer Überprüfung erkennbar. Es ist allerdings wie gesagt wenig darüber bekannt, wie genau die automatische Erkennung und Moderation auf den einzelnen Plattformen eingesetzt wird.


Quelle: klicksafe (Link zu externer Webseite)


Weitere Meldungen

Medienkompetenz |

Kriege, Anschläge, Klimakatastrophen – Jugendliche informieren sich über aktuelle Nachrichten und gesellschaftspolitische Themen auch über Soziale…

Weiterlesen
Medienkompetenz |

Durch den Einsatz generativer KI-Tools lassen sich inzwischen ganz einfach gefälschte Bilder, Videos oder Tonaufnahmen von Personen erzeugen -…

Weiterlesen