100.000 glückliche Bilder: ein neues Werkzeug im Cyber-„Wettrüsten“ gegen sexuelle Kindesmissbraucher | Technologie

LDer leitende Polizist Dr. Janis Dalins sucht nach 100.000 glücklichen Bildern von Kindern – ein Kleinkind in einem Sandkasten, ein Neunjähriger, der in der Schule einen Preis gewinnt, ein mürrischer Teenager, der zu Weihnachten ein Geschenk auspackt und so tut, als wäre ihm das egal.

Die Suche nach diesen sicheren, fröhlichen Bildern ist das Ziel einer neuen Kampagne Crowdsource eine Datenbank mit ethisch beschafften Bildern, von der Dalins hofft, dass sie dazu beitragen wird, bessere Ermittlungsinstrumente zu entwickeln, die im Kampf gegen das, was einige als „Tsunami“ von Material über sexuelle Übergriffe auf Kinder im Internet bezeichnet haben, eingesetzt werden können.

Dalins ist Co-Direktor des AiLecs-Labors, einer Zusammenarbeit zwischen der Monash University und der australischen Bundespolizei, die Technologien für künstliche Intelligenz zur Verwendung durch die Strafverfolgung entwickelt.

In der neuen Kampagne „My Pictures Matter“ werden Menschen über 18 gebeten, sichere Fotos von sich in verschiedenen Phasen ihrer Kindheit zu teilen. Sobald sie mit Informationen hochgeladen wurden, die das Alter und die Person auf dem Bild identifizieren, werden diese in eine Datenbank mit anderen sicheren Bildern aufgenommen. Schließlich wird ein maschineller Lernalgorithmus dazu gebracht, dieses Album immer wieder zu lesen, bis er lernt, wie ein Kind aussieht. Dann kann es sich auf die Suche machen.

Der Algorithmus wird verwendet, wenn ein Computer von einer Person beschlagnahmt wird, die verdächtigt wird, Material über sexuellen Missbrauch von Kindern zu besitzen, um schnell darauf hinzuweisen, wo sie am wahrscheinlichsten Bilder von Kindern finden – ein ansonsten langsamer und arbeitsintensiver Prozess, auf den Dalins bei seiner Arbeit im digitalen Bereich gestoßen ist Forensik.

„Das war völlig unvorhersehbar“, sagt er. „Eine Person wird erwischt und du denkst, du wirst ein paar hundert Bilder finden, aber es stellt sich heraus, dass dieser Typ ein gewaltiger Hamsterer ist, und dann verbrachten wir Tage, Wochen, Monate damit, dieses Zeug zu sortieren.“

„Hier kommt die Triage ins Spiel; [the AI] sagt, wenn Sie nach diesem Zeug suchen möchten, schauen Sie zuerst hier, denn das Zeug, das wahrscheinlich schlecht ist, sollten Sie zuerst sehen. Es liegt dann an einem Ermittler, jedes vom Algorithmus markierte Bild zu überprüfen.

Die Monash University behält das Eigentum an der Fotodatenbank und wird strenge Zugangsbeschränkungen auferlegen.

Das AiLecs-Projekt ist klein und zielgerichtet, gehört aber zu einer wachsenden Zahl von Algorithmen für maschinelles Lernen, die Strafverfolgungsbehörden, NGOs, Unternehmen und Aufsichtsbehörden einsetzen, um die Verbreitung von Material über sexuellen Missbrauch von Kindern im Internet zu bekämpfen.

Dazu gehören solche wie SICHERERein von der gemeinnützigen Gruppe Thorn entwickelter Algorithmus, der auf den Servern eines Unternehmens läuft und Bilder beim Hochladen und solche Web-Crawler identifiziert gesteuert von Projekt Arachnid das das Internet durchforstet und nach neuen Funden von bekanntem Material über sexuellen Missbrauch von Kindern sucht.

Unabhängig von ihrer Funktion ist die Verbreitung dieser Algorithmen laut Dalins Teil eines umfassenderen technologischen „Wettrüstens“ zwischen Sexualstraftätern im Kindesalter und Behörden.

„Das ist ein klassisches Szenario – das Gleiche passiert in der Cybersicherheit: Man baut einen besseren Verschlüsselungsstandard, eine bessere Firewall, dann versucht irgendjemand irgendwo, sich damit zurechtzufinden“, sagt er.

„[Online child abusers] gehörten zu den sicherheitsbewusstesten Menschen im Internet. Sie waren weit fortgeschrittener als die Terroristen zu meiner Zeit.“

“Ein wahrer Tsunami”

Es ist eine unangenehme Realität, dass heute online mehr Material über sexuellen Missbrauch von Kindern geteilt wird als jemals seit der Einführung des Internets im Jahr 1983.

Behörden im Vereinigten Königreich haben in den letzten zehn Jahren mit einer 15-fachen Zunahme von Berichten über sexuellen Missbrauch von Kindern im Internet zu kämpfen. In Australien beschrieb die eSafety Commission einen Anstieg der Berichte um 129 % in den frühen Stadien der Pandemie als „regelrechter Tsunami dieses schockierenden Materials, das über das Internet gespült wird“.

Der amtierende E-Sicherheitskommissar Toby Dagg sagte gegenüber Guardian Australia, dass es sich bei dem Problem um ein „globales Problem“ mit ähnlichen Spitzen während der Pandemie in Europa und den USA handele.

„Es ist gewaltig“, sagt Dagg. „Meine persönliche Ansicht ist, dass es sich um eine langsam rollende Katastrophe handelt, die keine Anzeichen einer baldigen Verlangsamung zeigt.“

Obwohl allgemein angenommen wird, dass Straftäter auf die Seitengassen des Internets beschränkt sind – das sogenannte Dark Web, das von Strafverfolgungsbehörden stark überwacht wird – sagt Dagg, dass es erhebliche Blutungen in die kommerziellen Dienste gegeben hat, die die Menschen täglich nutzen.

Dagg sagt, dass die gesamte Suite von Diensten „auf und ab des Technologie-Stacks“ – soziale Medien, Bildfreigabe, Foren, Cloud-Sharing, Verschlüsselung, Hosting-Dienste – von Straftätern ausgenutzt wird, insbesondere dort, wo „Sicherheit nicht als Kernpunkt angenommen wurde Grundsatz der Industrie“.

Die Flut von Berichten über Material über sexuellen Missbrauch von Kindern ist gekommen, als diese Dienste begonnen haben, in ihren Systemen danach zu suchen – das meiste Material, das heute entdeckt wird, ist den Behörden bereits bekannt, da Straftäter es sammeln und als „Sets“ handeln.

Wochenend-App

Da viele dieser Internetunternehmen in den USA ansässig sind, werden ihre Berichte an das National Center for Missing and Exploited Children (NCMEC) übermittelt, eine gemeinnützige Organisation, die Berichte zu diesem Thema koordiniert – und die Ergebnisse aus dem Jahr 2021 sind aufschlussreich. Facebook hat im Jahr 2021 auf seinen Servern 22 Millionen Fälle von Kindesmissbrauch gemeldet. Apple hingegen hat nur 160 offengelegt.

Diese Meldungen führen jedoch nicht sofort zu Deaktivierungen – jeder muss zuerst untersucht werden. Selbst wenn Organisationen wie Facebook sich in gutem Glauben bemühen, Material über sexuellen Missbrauch von Kindern auf ihren Systemen zu melden, ist die schiere Menge für die Behörden überwältigend.

„Es passiert, es passiert in großem Umfang, und als Konsequenz muss man zu dem Schluss kommen, dass etwas fehlgeschlagen ist“, sagt Dagg. „Wir sind Verfechter der Idee von Safety by Design, dass Sicherheit in einen neuen Service eingebaut werden sollte, wenn dieser auf den Markt gebracht wird.“

Ein grundlegender Konstruktionsfehler

Wie sich diese Situation entwickelt hat, hängt stark davon ab, wie das Internet aufgebaut wurde.

In der Vergangenheit war die Verbreitung von Material über sexuellen Missbrauch von Kindern in Australien aufgrund einer Kombination von Faktoren begrenzt, einschließlich restriktiver Gesetze, die den Import von Inhalten für Erwachsene kontrollierten.

Straftäter nutzten häufig bestehende Lieferketten für Erwachsenenunterhaltung aus, um dieses Material zu importieren, und mussten vertrauenswürdige Netzwerke mit anderen gleichgesinnten Personen bilden, um es zu erhalten.

Das bedeutete, dass wenn einer gefangen wurde, alle gefangen wurden.

Das Aufkommen des Internets veränderte alles, als es ein reibungsloses Kommunikationsmedium schuf, in dem Bilder, Videos und Texte nahezu augenblicklich mit jedem überall auf der Welt geteilt werden konnten.

Experten sagen, dass das Aufkommen des Internets es Straftätern ermöglicht hat, sehr effektiv darin zu werden, Wege zu finden, Bibliotheken mit Inhalten zum sexuellen Missbrauch von Kindern zu teilen und engagierte Gemeinschaften zu bilden. Foto: John Williams/Alamy

Der Kriminologe Michael Salter von der University of New South Wales sagt, die Entwicklung der sozialen Medien sei nur einen Schritt weiter gegangen.

„Es ist ein bisschen so, als würde man in einem Nachtclub einen Kindergarten einrichten. Schlimme Dinge werden passieren“, sagt er.

Slater sagt, ein „naiver Futurismus“ unter den frühen Architekten des Internets habe das Beste aus jedem Benutzer angenommen und nicht bedacht, wie böswillige Akteure die von ihnen gebauten Systeme ausnutzen könnten.

Jahrzehnte später sind Straftäter sehr effektiv darin geworden, Wege zu finden, Bibliotheken mit Inhalten zu teilen und engagierte Gemeinschaften zu bilden.

Slater sagt, dass dieses Vermächtnis weiterlebt, da viele Dienste in ihren Systemen nicht nach Material zum sexuellen Missbrauch von Kindern suchen und diejenigen, die ihre Server oft regelmäßig scannen, anstatt vorbeugende Maßnahmen zu ergreifen, wie das Scannen von Dateien beim Hochladen.

In der Zwischenzeit, während die Behörden diese Realität einholen, werden auch trübe neue Grenzen durch die Technologie eröffnet.

Lara Christensen, Dozentin für Kriminologie an der University of the Sunshine Coast, sagt, „virtuelles Material sexueller Übergriffe auf Kinder“ – Videos, Bilder oder Texte von Personen, die ein Kind sind oder ein Kind zu sein scheinen – stellen neue Herausforderungen dar.

„Die Schlüsselwörter sind ‚scheinbar’“, sagt Christensen. “Australisch Die Gesetzgebung geht über den Schutz tatsächlicher Kinder hinaus und erkennt an, dass sie ein Tor zu anderem Material sein könnte.“

Obwohl diese Art von Material schon seit einigen Jahren existiert, ist Christensen besorgt, dass ausgefeiltere Technologien ein ganz neues Spektrum von Straftaten eröffnen: realistische computergenerierte Bilder von Kindern, echte Fotos von Kindern, die fiktiv aussehen, Deepfakes, gemorphte Fotos und textbasierte Geschichten.

Sie sagt, dass jeder neue Möglichkeiten schafft, Kindern direkt zu schaden und/oder zu versuchen, sie zu pflegen. „Es dreht sich alles um Zugänglichkeit, Anonymität und Erschwinglichkeit“, sagt Christensen. „Wenn Sie diese drei Dinge in die Mischung einbringen, kann etwas zu einem großen Problem werden.“

Ein Mensch in der Schleife

In den letzten zehn Jahren hat sich die komplexe Mathematik hinter den Algorithmen zur Bekämpfung der Welle dieses kriminellen Materials erheblich weiterentwickelt, aber sie ist immer noch nicht ohne Probleme.

Eine der größten Sorgen ist, dass es oft unmöglich ist zu wissen, woher der Privatsektor die Bilder hat, die er zum Trainieren seiner KI verwendet hat. Dazu können Bilder von sexuellem Missbrauch von Kindern oder Fotos gehören, die ohne Zustimmung derjenigen, die sie hochgeladen haben, von offenen Social-Media-Konten abgekratzt wurden. Von Strafverfolgungsbehörden entwickelte Algorithmen stützen sich traditionell auf Bilder von Missbrauch, die von Straftätern aufgenommen wurden.

Dies birgt die Gefahr, dass Überlebende, deren Bilder ohne ihre Zustimmung verwendet werden, erneut traumatisiert werden und die Vorurteile der Ersteller der Algorithmen dank eines Problems, das als „Overfitting“ bekannt ist, eingebrannt werden – eine Situation, in der Algorithmen, die auf schlechten oder begrenzten Daten trainiert wurden, schlechte Ergebnisse liefern .

Mit anderen Worten: Bringen Sie einem Algorithmus bei, nach Äpfeln zu suchen, und er findet möglicherweise ein Apple iPhone.

„Computer lernen genau das, was Sie ihnen beibringen“, sagt Dalins.

Das versucht das Labor AiLecs mit seinem zu beweisen Meine Bilder sind wichtig Kampagne: dass es möglich ist, diese wesentlichen Werkzeuge zu bauen mit der vollen Zustimmung und Zusammenarbeit derjenigen, deren Kindheitsbilder verwendet werden.

Aber trotz aller Fortschritte in der Technologie, sagt Dalins, wird die Untersuchung des sexuellen Missbrauchs von Kindern immer menschliche Beteiligung erfordern.

„Wir reden hier nicht davon, Sachen zu identifizieren, damit der Algorithmus x sagt und das vor Gericht geht“, sagt er. „Wir sehen in den nächsten fünf oder zehn Jahren keinen Zeitpunkt, an dem wir einen Prozess wie diesen vollständig automatisieren würden.

„Man braucht einen Menschen auf dem Laufenden.“

source site-27