Die australische Regierung hat angekündigt, ein Gesetz auf den Weg zu bringen, dass Social-Media-Dienste für alle Personen unter 16 Jahren verbietet. Begründet wird dieses Vorhaben mit den potenziellen negativen Auswirkungen auf die körperliche und die psychische Entwicklung der jungen Social-Media-Nutzer*innen. Unklar ist bisher, welche Plattformen genau als „Social Media“ gelten sollen. Die australische Regierung betont, dass das Gesetz vor allem die Plattformen in die Verantwortung nehmen soll und nicht Kinder und ihre Eltern. Es sei zum Beispiel keine Strafe für Jugendliche vorgesehen, die sich über dieses Verbot hinwegsetzen. Wohl aber für Plattformen, auf denen Kinder und Jugendliche aktiv sind. Unklar ist ebenso, welches Altersverifikationssystem eingesetzt werden soll, um das Alter bei der Anmeldung wirksam zu überprüfen.
Bedenken zu dem Gesetzesvorhaben hat unter anderem die australische Menschenrechtskommission geäußert. Bei Umsetzung eines vollständigen Verbots könnte ein Verstoß gegen die Kinderrechtskonvention vorliegen. Diese garantiert Kindern zwar das Recht auf Schutz vor Gefahren, aber zum Beispiel auch das Recht auf Zugang zu Informationen, auf freie Meinungsäußerung und auf Kultur, Freizeit und Spiel. So kommt die australische Menschenrechtskommission in ihrer Stellungnahme zu dem Ergebnis: „Es gibt weniger restriktive Alternativen, um Kinder und Jugendliche besser vor Online-Gefahren zu schützen, ohne dabei ihre Menschenrechte so signifikant negativ zu beeinflussen“ (Übersetzung durch klicksafe).
In Deutschland gibt es bislang keine gesetzliche Regelung zum Mindestalter für Social-Media-Dienste. Die Dienste selbst schreiben in ihren Nutzungsbedingungen ein Mindestalter vor, das in der Regel bei 13 Jahren liegt. Jedoch wird dieses aktuell nicht wirksam bei der Anmeldung überprüft.
Welche Risiken gibt es in Social-Media-Diensten?
Die Gefahren vieler Social-Media-Plattformen lassen sich in vier Kategorien fassen. Die genannten Beispiele sollen illustrieren, was in diese Kategorie fallen kann. Selbstverständlich handelt es sich nicht um eine vollständige Liste und es sind viele weitere Risiken denkbar.
- Inhaltsrisiken: Konfrontation mit entwicklungsbeinträchtigenden und jugendgefährdenden Inhalten, die ungeprüft auf den Plattformen hochgeladen werden können z.B. pornografische, gewalthaltige oder extremistische Bilder oder Videos.
- Kontaktrisiken: Sexuelle Belästigung, Anbahnung sexueller Missbrauch (Cybergrooming) oder Erpressung mit sexuellen Bildern online (Sextortion).
- Verhaltensrisiken: Cybermobbing, Hate Speech, sexualisierte Selbstdarstellung, Radikalisierung, problematische Rollenbilder, Verherrlichung von Essstörungen, Teilnahme an gefährlichen Challenges, exzessive Nutzung.
- Verbraucherrisiken: Fake Shops, manipulative Werbung und Influencer-Marketing.
Was fasziniert Kinder und Jugendliche an Social Media?
Zwar gibt es eine Vielzahl möglicher Gefahren, Social-Media-Dienste werden von Jugendlichen aber auch als positiv und bereichernd erlebt:
- Soziale Beziehungen: Über Social-Media-Dienste bleiben Jugendliche mit ihren Freund*innen im Austausch oder lernen neue Menschen aus der Social-Media-Community mit gleichen Interessen kennen.
- Sich ausdrücken: Durch das Erstellen von Medieninhalten (z.B. Fotos oder Videos) können Jugendliche ihre Kreativität entfalten und sich anderen Menschen mitteilen.
- Sich informieren: Jugendliche erhalten aus Social-Media-Diensten einerseits Informationen zum aktuellen Zeitgeschehen. Zum anderen finden sie dort aber auch Informationen zu ihren spezifischen Interessen (zum Beispiel zu Gaming oder Musik), zu denen in gängigen Nachrichten-Portalen keine Berichterstattung stattfindet.
- Identitätsentwicklung: Jugendliche nutzen Social Media auch, um die eigene Identität zu entwickeln und verschiedene Rollen auszuprobieren. Sie können eigene Interessen erkunden und folgen ihren Vorbildern.
Wie können Eltern ihre Kinder auf Social Media beaufsichtigen?
Durch strikte gesetzliche Vorgaben wie zum Beispiel den Digital Services Act der Europäischen Union, sind Social-Media-Anbieter verpflichtet, Funktionen zur elterlichen Begleitung von Minderjährigen anzubieten. Eltern erhalten mit diesen Tools mehr Einsicht und Kontrolle in das Nutzungsverhalten ihrer Kinder und können unterstützende Maßnahmen ergreifen, wenn es nötig wird.
Im Folgenden stellen wir plattformspezifische Möglichkeiten vor, um Minderjährige in den Diensten zu begleiten. Diese greifen nur, wenn bei der Kontoregistrierung das korrekte Alter angegeben wurde. Solche technischen Möglichkeiten können niemals die einzigen Maßnahmen für eine sichere Mediennutzung sein. Es ist wichtig, dass Erziehende weiterhin ihr Kind aktiv begleiten, also regelmäßig das Gespräch über die Online-Erlebnisse suchen und Regeln aufstellen. Technische Maßnahmen zum Kinder- und Jugendmedienschutz ersetzen die Medienerziehung also nicht, sondern ergänzen sie nur.
Elternaufsicht
Mit der Elternaufsicht können Eltern ihr eigenes Konto mit dem Konto ihres Kindes verknüpfen. Dadurch können sie die Nutzungszeit des Kindes auf Facebook überwachen sowie die Freundesliste und die individuellen Kontoeinstellungen einsehen. Um eine exzessive Nutzung vorzubeugen, können Pausenzeiten eingerichtet werden.
→ Anleitung von Medien Kindersicher
Elternaufsicht
Auf Instagram können Eltern ebenfalls ihr Konto mit dem ihres Kindes verbinden, die Nutzungsdauer ihres Kindes einsehen und Zeitlimits festlegen. Zudem können sie die Konten überprüfen, denen das Kind folgt, sowie die Konten, die dem Kind folgen. Eltern erhalten außerdem Benachrichtigungen über Aktivitäten, beispielsweise wenn ein neues Konto dem Kind folgt.
→ Anleitung von Medien Kindersicher
Zudem hat Instagram sogenannte Teenager-Konten eingeführt, die in 2025 auch im europäischen Raum verfügbar sind. Diese enthalten erweiterte Kontrollmöglichkeiten für Eltern.
Snapchat
Snapchat Family Center
Mit dem Snapchat Family Center erhalten Eltern Einblicke in die Snapchat-Nutzung ihrer Kinder. Sie können nachvollziehen, mit wem das Kind befreundet ist und mit wem es kommuniziert, wobei der Inhalt der Konversationen nicht einsehbar ist. Diese Funktion steht für Kinder und Jugendliche im Alter von 13 bis 18 Jahren zur Verfügung.
→ Anleitung von Medien Kindersicher
TikTok
Begleiteter Modus
TikTok bietet den begleiteten Modus, in dem Erziehungsberechtigte die Nutzungszeit des Kindes festlegen können. Sie haben die Möglichkeit zu regulieren, mit wem das Kind in Kontakt tritt, ob es nach Inhalten suchen kann und ob Videos für Erwachsene angezeigt werden dürfen.
→ Anleitung von Medien Kindersicher
YouTube
Elternaufsicht
Durch die Aktivierung der Elternaufsicht haben Eltern die Möglichkeit, aus Inhaltseinstellungen für ältere Kinder und Jugendliche auszuwählen. Die Videos werden nach Altersgruppen gefiltert und angezeigt.
→ Anleitung von Medien Kindersicher
Discord
Family Center
Das Family Center ermöglicht es Eltern, die Aktivitäten ihrer Kinder zu verfolgen, indem Einblicke in die Communities oder Server gewährt werden, denen das Kind angehört.
→ Anleitung von Medien Kindersicher
Weitere Informationen zum Thema Social Media bei klicksafe
Viele weitere Tipps zu einzelnen Social-Media-Apps, zur Medienerziehung und zu technischem Jugendmedienschutz finden Sie auf unseren Themenseiten:
klicksafe bietet Ihnen eine Vielzahl von Broschüren und Flyern rund um die Themen Social-Media-Nutzung und Sicherheit. Eine kleine Auswahl haben wir hier zusammengestellt. Schauen Sie aber gerne auch selbst durch unser Materialiensystem, um für Sie passende Angebote zu finden.