Online-Alter von Erwachsenen, das von einem Drittel der acht- bis 17-jährigen Social-Media-Nutzer verwendet wird | Sozialen Medien

Einer neuen Studie zufolge hat ein Drittel der Social-Media-Nutzer zwischen acht und 17 Jahren das Online-Alter eines Erwachsenen, weil sie sich mit einem falschen Geburtsdatum anmelden.

Das Problem des falschen Alters bedeutet, dass junge Benutzer in Großbritannien einem größeren Risiko ausgesetzt sind, schädlichen oder nicht jugendfreien Inhalten ausgesetzt zu werden, da Plattformen davon ausgehen, dass sie älter sind, als sie tatsächlich sind.

Die Mehrheit der Kinder zwischen acht und 17 Jahren, die soziale Medien nutzen, hat laut einer von Ofcom, der Kommunikationsaufsichtsbehörde, in Auftrag gegebenen Studie ein eigenes Profil auf mindestens einer der Hauptplattformen.

„Wenn ein Kind selbst ein falsches Alter angibt, um Zugang zu sozialen Medien oder Online-Spielen zu erhalten, wird mit zunehmendem Alter auch sein angegebenes Benutzeralter. Dies bedeutet, dass sie einem größeren Risiko ausgesetzt sein könnten, online auf alterswidrige oder schädliche Inhalte zu stoßen“, sagte Ofcom.

Die Regulierungsbehörde fügte hinzu, dass einige Plattformen, sobald ein Benutzer 16 oder 18 Jahre alt ist, Funktionen einführen, die jüngeren Benutzern nicht zur Verfügung stehen, wie z. B. Direktnachrichten oder die Möglichkeit, Inhalte für Erwachsene anzuzeigen.

Die Studie umfasste sechs der führenden Plattformen – Facebook, Instagram, TikTok, Snapchat, Twitter und YouTube –, die alle eine Altersgrenze von 13 Jahren haben. Die Ergebnisse deuten darauf hin, dass 32 % der Kinder im Alter von acht bis 17 Jahren mit einem Social-Media-Profil einen Benutzer haben Alter von 18 Jahren oder älter, während fast die Hälfte der Kinder in der gleichen Altersgruppe ein Benutzeralter von 16 Jahren oder älter hat.

Die beliebteste Seite bei allen Acht- bis 17-Jährigen war YouTube, gefolgt von TikTok und dann Instagram. Die Mehrheit der Befragten hatte ihr Kontoprofil selbst erstellt.

Das Online-Sicherheitsgesetz, das noch vor Weihnachten durch das Parlament gehen soll, schreibt eine Sorgfaltspflicht zum Schutz von Kindern vor schädlichen Inhalten vor. Die Untersuchung des Todes von Molly Russell, einer 14-Jährigen, die sich 2017 das Leben nahm, nachdem sie schädliche Inhalte auf Plattformen wie Instagram und Pinterest angesehen hatte, ergab, dass sie sich im Alter von 12 Jahren für ein Instagram-Konto anmeldete.

Ein Experte für Internetsicherheit beschrieb die Studie, die auf einer Umfrage von Yonder Consulting unter mehr als 1.000 jungen Social-Media-Nutzern basiert, als ein Signal von Ofcom an Technologieunternehmen, dass es weiß, wo es Fehler in ihrem Betrieb gibt.

„Dies ist ein Warnschuss für Plattformen, dass Ofcom weiß, was mit diesen Diensten los ist“, sagte William Perrin, ein Treuhänder des Carnegie UK Trust.

Gemäß dem Online-Sicherheitsgesetz sind Plattformen verpflichtet, Kinder daran zu hindern, auf schädliche Inhalte – wie Selbstmord- und Selbstverletzungsmaterial – zuzugreifen, und zwar mit Systemen, die strenge Altersüberprüfungen beinhalten könnten. Als Teil eines Risikobewertungsprozesses, der gemäß dem Gesetzentwurf erforderlich ist, wird Ofcom dann entscheiden, ob der Ansatz jeder Plattform zur Altersüberprüfung gründlich genug ist.

Ein Sprecher der Molly Rose Foundation, die von Molly Russells Familie gegründet wurde, sagte: „Eine wirksame Regulierung durch das Online-Sicherheitsgesetz kann nicht zu früh kommen. Die Ofcom-Untersuchung zeigt, dass Social-Media-Anbieter eine grundlegende Fürsorgepflicht verletzen, indem sie Kindern ab acht Jahren den Zugang zu ihren Plattformen ermöglichen. Sie haben sich als unfähig erwiesen, die Fähigkeit ihrer Plattformen zu kontrollieren, unsere Kinder mit beunruhigenden und schädlichen Inhalten zu verbinden, was zu tragischen Ergebnissen führte.“

Der Sprecher fügte hinzu: „Hätten in Mollys Fall die entsprechenden Altersprüfungen durchgeführt worden, wäre ihr möglicherweise ein ganzes Jahr erspart geblieben, schädlichen Inhalten auf Instagram ausgesetzt zu sein.“

Die Ofcom veröffentlichte auch Forschungsergebnisse, die zeigen, dass Kinder eine „Selbstdeklaration“-Methode zur Alterssicherung für Social-Media-Plattformen bevorzugen, während Eltern häufig eine „elterliche Bestätigung“ bevorzugen, bei der sie das Alter eines Kontoinhabers bestätigen.

Meta, der Besitzer von Instagram und Facebook, nutzt künstliche Intelligenz, um minderjährige Nutzer zu finden. YouTube, das sich im Besitz von Google befindet, ermöglicht es Kindern unter 13 Jahren, Konten unter Aufsicht der Eltern oder Erziehungsberechtigten zu eröffnen, und bietet die separate YouTube Kids-Plattform an, während TikTok über eine Altersgrenze verfügt, bei der Personen ihr vollständiges Geburtsdatum eingeben müssen.

Ein Snapchat-Sprecher sagte: „Die Altersüberprüfung ist eine branchenweite Herausforderung, und wir sind in laufenden Gesprächen mit anderen Unternehmen und politischen Entscheidungsträgern über konsistente und effektive Lösungen.“

source site-27