Apples Entscheidung, seine CSAM-Fotoüberwachung nicht einzuführen, könnte dauerhaft sein


Im August kündigte Apple an, seine iPhones und iPads mit einer Reihe von Funktionen zu versehen, um die Verbreitung von Material über sexuellen Missbrauch von Kindern (CSAM) zu begrenzen. Mit dem neuen iOS 15.2-Update veröffentlichte Apple seine neuen Kindersicherheitsfunktionen, aber nicht seine CSAM-Fotoüberwachungsfunktion. Apples CSAM-Fotoüberwachungsfunktion wurde im September aufgrund des erhaltenen negativen Feedbacks verschoben. Die Erklärung, die dies ankündigt, wurde auf der Seite zur Kindersicherheit von Apple veröffentlicht; Alle Informationen zu Apples CSAM-Fotoüberwachungstool und die Erklärung selbst wurden jedoch irgendwann am oder nach dem 10. Dezember entfernt, berichtet MacRumors.

Durch das Entfernen aller Informationen über sein CSAM-Fotoverfolgungstool von seiner Website hat Apple diese Funktion möglicherweise offen aufgegeben.

Nach der Ankündigung im August kritisierten zahlreiche Einzelpersonen und Organisationen die neu angekündigten Funktionen von Apple für seine Mobilgeräte.

Das am häufigsten angesprochene Problem bei Apple war die Funktionsweise der CSAM-Bildüberwachungsfunktion. Die Idee von Apple bestand darin, On-Device-Intelligenz zu verwenden, um in iCloud gespeicherte CSAM-Sammlungen abzugleichen. Wenn Apple solches CSAM-Material entdeckt hätte, hätte es dieses Konto gekennzeichnet und Informationen an das NCMEC (National Center for Missing and Exploited Children) weitergegeben.

Laut Forschern würde Apple eine ähnliche Technologie wie Spionage verwenden, und dass dieselbe Technologie bei der Identifizierung von CSAM-Bildern nutzlos ist. Beim Testen der CSAM-Fotoüberwachungsfunktion von Apple stellten die Forscher fest, dass jemand die Erkennung vermeiden könnte, indem er das Foto geringfügig änderte.

Obwohl Apple versuchte, den Benutzern zu versichern, dass die Technologie wie beabsichtigt funktioniert und absolut sicher ist, blieb die Meinungsverschiedenheit bestehen.

Mit dem iOS 15.2-Update hat Apple einige seiner Kindersicherheitsfunktionen eingeführt. Mit iOS 15.2 kann die iMessage jetzt Kinder warnen, wenn sie Fotos mit Nacktheit empfangen oder senden. Wenn das Kind solche Inhalte empfängt oder sendet, wird das Foto unscharf und iMessage zeigt eine Warnung an.

In iOS 15.2 hat Apple auch zusätzliche Anleitungen in Siri, Spotlight und Safari Search hinzugefügt, die zusätzliche Ressourcen bereitstellen, die Kindern und ihren Eltern helfen, online sicher zu bleiben.

source site-33