Ergebnisse der TikTok-Selbstverletzungsstudie „Albtraum aller Eltern“ | Tick ​​Tack

Der Empfehlungsalgorithmus von TikTok bringt Inhalte zu Selbstverletzungen und Essstörungen innerhalb von Minuten, nachdem sie Interesse an den Themen bekundet haben, an Teenager, so die Forschung.

Das Center for Countering Digital Hate (CCDH) stellte fest, dass die Video-Sharing-Site Inhalte wie gefährlich restriktive Diäten, Inhalte zur Förderung von Selbstverletzungen und Inhalte, die Selbstmord romantisieren, bei Benutzern fördert, die eine Präferenz für das Material zeigen, selbst wenn sie als registriert sind unter 18 Jahren.

Für ihre Studie richtete die Kampagnengruppe Konten in den USA, Großbritannien, Kanada und Australien ein, die mit einem Alter von 13 Jahren registriert wurden, dem Mindestalter für die Teilnahme am Dienst. Es erstellte „Standard“- und „gefährdete“ Konten, wobei letztere den Begriff „Abnehmen“ in ihren Benutzernamen enthielten, was laut CCDH Untersuchungen widerspiegelte, die zeigten, dass Social-Media-Benutzer, die nach Inhalten zu Essstörungen suchen, häufig Benutzernamen mit verwandter Sprache wählen.

Die Accounts „pausierten kurz“ bei Videos zu Körperbildern, Essstörungen und psychischer Gesundheit und mochten diese auch. Dies fand über einen anfänglichen Zeitraum von 30 Minuten statt, als die Konten gestartet wurden, um die Effektivität des Algorithmus von TikTok zu erfassen, der den Benutzern Inhalte empfiehlt.

Auf „Standard“-Konten folgten Inhalte über Suizid innerhalb von fast drei Minuten und Material über Essstörungen wurde innerhalb von acht Minuten gezeigt.

„Die Ergebnisse sind der Alptraum aller Eltern“, sagte Imran Ahmed, Chief Executive von CCDH. „Die Feeds junger Menschen werden mit schädlichen, erschütternden Inhalten bombardiert, die einen erheblichen kumulativen Einfluss auf ihr Verständnis der Welt um sie herum und auf ihre körperliche und geistige Gesundheit haben können.“

Die Gruppe sagte, dass die Mehrheit der Videos zur psychischen Gesundheit, die ihren Standardkonten über den For You-Feed präsentiert wurden – die wichtigste Art und Weise, wie TikTok-Benutzer die App erleben – aus Benutzern bestand, die ihre Ängste und Unsicherheiten teilten.

Der Inhalt von Körperbildern sei schädlicher, so der Bericht, da Konten, die für 13-Jährige registriert seien, Videos gezeigt würden, in denen Getränke zur Gewichtsabnahme und „Bauchdeckenstraffungen“ beworben würden. Eine Animation, die vor den Standardkonten erschien, enthielt ein Stück Audio mit der Aussage „Ich habe mich für dich ausgehungert“ und hatte mehr als 100.000 Likes. Dem Bericht zufolge wurden den Konten alle 206 Sekunden Selbstverletzungs- oder Essstörungsvideos gezeigt.

Die Forscher fanden heraus, dass Videos, die sich mit Körperbild, psychischer Gesundheit und Essstörungen befassten, dreimal häufiger auf „gefährdeten“ Konten gezeigt wurden als auf Standardkonten. Die gefährdeten Konten erhielten 12-mal so viele Empfehlungen für Videos im Zusammenhang mit Selbstverletzung und Suizid wie die Standardkonten, heißt es in dem Bericht.

Die empfohlenen Inhalte waren für die gefährdeten Konten extremer, darunter Methoden der Selbstverletzung und junge Menschen, die Pläne zur Selbsttötung diskutierten. CCDH sagte, dass alle 27 Sekunden ein Video zur psychischen Gesundheit oder zum Körperbild gezeigt wurde, obwohl der Inhalt von Videos zur psychischen Gesundheit dominiert wurde, die CCDH als Videos über Ängste, Unsicherheiten und psychische Erkrankungen definierte, mit Ausnahme von Essstörungen, Selbstverletzung und Selbstmord .

Die Gruppe sagte, dass ihre Forschung nicht zwischen Inhalten mit positiver Absicht – wie z. B. Inhalten zur Entdeckung der Genesung – oder negativen Inhalten unterschieden habe.

Ein Sprecher von TikTok, das der chinesischen Firma ByteDance gehört und weltweit mehr als 1 Milliarde Nutzer hat, sagte, die CCDH-Studie spiegele nicht die Erfahrungen oder Sehgewohnheiten von echten Nutzern der App wider.

„Wir konsultieren regelmäßig Gesundheitsexperten, beseitigen Verstöße gegen unsere Richtlinien und bieten allen Bedürftigen Zugang zu unterstützenden Ressourcen“, sagten sie. „Wir sind uns bewusst, dass das Auslösen von Inhalten für jeden Einzelnen einzigartig ist, und konzentrieren uns weiterhin darauf, einen sicheren und komfortablen Raum für alle zu schaffen, einschließlich Menschen, die sich dafür entscheiden, ihre Genesungsreisen zu teilen oder andere über diese wichtigen Themen aufzuklären.“

Die Richtlinien von TikTok verbieten Inhalte, die Verhaltensweisen fördern, die zu Selbstmord und Selbstverletzung führen können, sowie Materialien, die ungesunde Essgewohnheiten oder -gewohnheiten fördern.

Das britische Online-Sicherheitsgesetz sieht vor, soziale Netzwerke dazu zu verpflichten, Maßnahmen gegen sogenannte „legale, aber schädliche“ Inhalte zu ergreifen, die Kindern gezeigt werden.

In Großbritannien kann die Jugendselbstmord-Wohltätigkeitsorganisation Papyrus unter 0800 068 4141 oder per E-Mail an [email protected] kontaktiert werden. In Großbritannien und Irland können Samariter unter 116 123 oder per E-Mail an [email protected] oder [email protected] kontaktiert werden. In den USA lautet die National Suicide Prevention Lifeline 1-800-273-8255. In Australien ist der Krisendienst Lifeline 13 11 14. Weitere internationale Helplines finden Sie unter www.befrienders.org. Sie können die Wohltätigkeitsorganisation Mind kontaktieren, indem Sie 0300 123 3393 anrufen oder besuchen mind.org.uk.

source site-27