Aus Sex wird Seggs, aus Lesbian wird Le$Bean bzw. Le Dollar Bean und das harmlose Auberginen-Emoji wird zum männlichen Genital. Wer viel durch Social Media scrollt, hat vielleicht schon seltsame Begriffe oder Emojis gesehen, deren Bedeutungen sich nicht sofort erschließen. Dahinter steckt Algospeak, eine Codierung von sensiblen Wörtern, die normal geschrieben als problematischer Inhalt erkannt werden könnten.
Was ist Algospeak?
Algospeak ist ein Kofferwort aus „Algo“ für „Algorithmus“ und „Speak“, dem englischen Wort für „Sprechen“. Algospeak wird als Kommunikationsstrategie in sozialen Medien eingesetzt, um Plattformrestriktionen zu verhindern. Begriffe werden umformuliert, Silben vertauscht oder Zahlen statt Buchstaben eingesetzt. Auch das Verwenden von bestimmten Emojis fällt unter Algospeak. Eine Grafik mit Beispielen finden Sie weiter unten im Artikel.
Mithilfe von Algospeak gegen „Shadowbans“
Viele Plattformen wie zum Beispiel TikTok versuchen durch das automatisierte Erkennen bestimmter Wörter zu verhindern, dass Nutzer*innen Hassrede, Beleidigungen, sexualisierte oder extremistische Beiträge angezeigt werden. Dabei kam es in der Vergangenheit bereits vor, dass auch Inhalte verborgen wurden, die gegen keine Richtlinien verstießen. Eine Recherche von NDR, WDR und Tagesschau konnte 2022 zeigen, dass unter anderem Kommentare mit Begriffen wie „schwul“, „homosexuell“, „LGBTQ“, „Auschwitz“ und „Nationalsozialismus“ teilweise nicht angezeigt oder blockiert wurden. Und das, obwohl sie inhaltlich nicht problematisch waren oder sogar aufklärenden Charakter hatten. Die Nutzer*innen wurden über die Beschränkungen ihrer Beiträge nicht informiert. Hierbei spricht man von sogenannten „Shadowbans“. Gepostete Inhalte sindfür Ersteller*innen zwar noch sichtbar, aber nicht für andere Nutzer*innen. Die Beiträge haben also weniger Reichweite, meist ohne dass dies vom Plattformbetreiber kenntlich gemacht wird.
Um Shadowbans oder gar das Löschen von Beiträgen zu verhindern, haben Nutzer*innen angefangen, Begriffe abzuwandeln. Durch einen Artikel der Washington Post im Jahr 2022 erlangte der Begriff „Algospeak“ für dieses Verhalten größere Bekanntheit. Einige Algospeak-Begriffe sind leicht zu „decodieren“. Lediglich ein Buchstabe wird ausgetauscht, beispielsweise „D1CK“ (dick, engl. für Schwanz), „Le$bian“ (lesbian, engl. für lesbisch) oder „Depressi0n“ (Depression). Anders verhält es sich, wenn ein bekanntes Wort für etwas ganz anders steht. So verwendeten beim #MascaraTrend im Jahr 2023 Nutzer*innen auf TikTok das Beautyprodukt als Codewort, um über ihre Erfahrungen mit sexuellem Missbrauch zu berichten.
Algospeak in problematischen und antidemokratischen Kontexten
Nicht immer wird Algospeak genutzt, um über sensible Themen oder kontroverse Inhalte aufzuklären und sich dazu auszutauschen. Einige Codewörter und Emojis werden eingesetzt, um Personen sexuell zu belästigen, selbstverletzendes Verhalten zu normalisieren oder um gezielt Hass und rechtsextremistische Inhalte zu verbreiten.
Übersicht mit Beispielen zu Algospeak
Auf der Grafik haben wir einige Beispiele für Sie zusammengetragen. Sie können die Übersicht herunterladen und ausdrucken.
Ist Algospeak wirklich sinnvoll?
Nutzer*innen erhoffen sich durch Algospeak nicht in ihrer Reichweite eingeschränkt zu werden. Dabei ist allerdings nicht klar, ob dieses Vorgehen überhaupt nötig oder effektiv ist. Plattformen gewähren der Öffentlichkeit bisher keinen umfassenden Einblick, wie die automatische Erkennung von Inhalten funktioniert und nach welche Kriterien genau moderiert wird. Das führt dazu, dass Nutzer*innen darüber spekulieren müssen, welche Inhalte betroffen sein könnten. Und unter Umständen auch dazu, dass eine Übervorsichtigkeit entsteht, in der Dinge codiert werden, obwohl dafür gar kein Anlass besteht.
Fraglich ist auch, wie effektiv ein codiertes Schreiben ist, um automatische Erkennung zu verhindern. Denn es ist anzunehmen, dass ein Filter, der nach bestimmten Wörtern sucht, auch problemlos um neue Begriffe erweitert werden kann. Falls eine Plattform wirklich restriktiv gegen einen Inhalt vorgehen möchte, würden sicherlich auch die allgemein bekannten Algospeak-Begriffe zu diesem Thema erkannt. So löst eine Suche nach „Sewer Slide“ bei TikTok zum Beispiel mittlerweile dieselben Hinweise auf Suizid-Hilfestellen aus wie eine Suche nach dem Begriff „Suicide“.
Durch den Einsatz von Künstlicher Intelligenz sind darüber hinaus auch semantische Zusammenhänge automatisch erkennbar. Ob der Begriff „Auschwitz“ im Rahmen einer Holocaustleugnung oder in einem Post zum Gedenktag der Befreiung des Konzentrationslagers verwendet wird, wäre dadurch auch bei automatischer Überprüfung erkennbar. Es ist allerdings wie gesagt wenig darüber bekannt, wie genau die automatische Erkennung und Moderation auf den einzelnen Plattformen eingesetzt wird.