Australiens Kommunikationsminister hat einen neuen Gesetzentwurf zum Verbot sozialer Medien für Minderjährige unter 16 Jahren vorgelegt. Werden andere Länder diesem Beispiel folgen?
Die australische Regierung hat einen neuen Gesetzentwurf eingebracht, der Kindern unter 16 Jahren die Nutzung sozialer Medien verbieten soll, als Teil der Bemühungen des Landes, die Sicherheit der Menschen im Internet zu gewährleisten.
„Für zu viele junge Australier können soziale Medien schädlich sein“, sagte Kommunikationsministerin Michelle Rowland in einer Rede vor dem Parlament.
„Fast zwei Drittel der 14- bis 17-jährigen Australier haben sich online extrem schädliche Inhalte angesehen, darunter Drogenmissbrauch, Selbstmord oder Selbstverletzung sowie gewalttätiges Material“, sagte sie.
„Ein Viertel war Inhalten ausgesetzt, die unsichere Essgewohnheiten fördern.“
Die Gesetzgebung gilt für „altersbeschränkte Social-Media-Plattformen“ – ein in das Gesetz eingeführter Begriff –, wobei der Kommunikationsminister erklärte, dass sie mindestens Plattformen wie TikTok, Facebook, Snapchat, Reddit, Instagram und X (früher) umfassen würden Twitter).
„Diese Dienste müssen angemessene Maßnahmen ergreifen, um zu verhindern, dass Personen unter 16 Jahren ein Konto erstellen oder führen“, fügte Rowland hinzu.
Untersuchungen der unabhängigen australischen Regulierungsbehörde für Online-Sicherheit ergaben, dass fast die Hälfte der 8- bis 12-Jährigen Kurzvideo-Apps wie Snapchat und TikTok nutzt, während mehr als ein Drittel Messaging-Apps verwendet hat.
Die Aufsichtsbehörde sagte außerdem, dass die große Mehrheit der Betreuer die Online-Sicherheit als eine ihrer größten Herausforderungen bei der Erziehung ansehe.
„Dies ist eine bahnbrechende Reform. Wir wissen, dass einige Kinder Workarounds finden werden, aber wir senden eine Botschaft an Social-Media-Unternehmen, um ihr Vorgehen zu bereinigen“, sagte der australische Premierminister Anthony Albanese in einer Erklärung.
Die Mindestaltersgrenze wird mindestens ein Jahr nach Verabschiedung des Gesetzes in Kraft treten, was den Social-Media-Plattformen Zeit gibt, die erforderlichen Systeme zu entwickeln, sagte die australische Regierung.
Welche anderen Länder arbeiten daran, Kinder vor sozialen Medien zu schützen?
Viele Länder sind auch an einem größeren Jugendschutz im Internet interessiert.
Der Online Safety Act des Vereinigten Königreichs, der derzeit von der Regulierungsbehörde umgesetzt wird, verpflichtet Social-Media-Unternehmen zur Durchsetzung von Altersgrenzen.
„Unternehmen können in ihren Nutzungsbedingungen nicht mehr sagen, dass ihr Dienst für Benutzer ab einem bestimmten Alter bestimmt ist, und nichts unternehmen, um den Zugriff jüngerer Kinder zu verhindern“, sagte die britische Regierung.
Ein französisches Gesetz aus dem Jahr 2023 schreibt vor, dass soziale Plattformen die Zustimmung der Eltern von Minderjährigen unter 15 Jahren einholen müssen, bevor sie ein Konto erstellen können. Aus technischen Gründen wurde dies jedoch noch nicht umgesetzt.
Der französische Präsident Emmanuel Macron hat eine umfassendere gefordert Auch das europäische digitale Zeitalter der Mehrheit.
Die norwegische Regierung erklärte letzten Monat, sie wolle, dass Minderjährige mindestens 15 Jahre alt seien, um der Verarbeitung ihrer Daten durch Social-Media-Seiten zuzustimmen.
Die Regierung strebt auch eine Altersgrenze für soziale Medien an und arbeitet an einer Umsetzung.
Viele Social-Media-Plattformen wie Facebook, Snapchat und TikTok haben bereits eine Altersgrenze von 13 Jahren für die Anmeldung auf der Plattform.
Auch Instagram kürzlich angekündigt eine Reihe von Änderungen, darunter „Teenager-Konten“ für Benutzer unter 18 Jahren.
In den Ländern der Europäischen Union erfordert die Datenschutz-Grundverordnung (DSGVO) die Zustimmung der Eltern zur Verarbeitung personenbezogener Daten für Minderjährige unter 16 Jahren. Staaten können jedoch eine niedrigere Altersgrenze festlegen, solange diese mindestens 13 Jahre beträgt.
Der Digital Services Act (DSA) verpflichtet Online-Plattformen mit mehr als 45 Millionen monatlichen Nutzern in der EU dazu, mögliche Online-Risiken für Kinder und Jugendliche, die sie nutzen, zu identifizieren und zu bewerten.
Zusätzliche Quellen • AP