Apple verschiebt Pläne, Cloud-Uploads nach Bildern von sexuellem Missbrauch von Kindern zu scannen

Das Unternehmen sagt, dass es nach Gegenreaktionen von Datenschutzgruppen „Eingaben sammeln und Verbesserungen vornehmen“ wird

Apple wird seine Pläne, Benutzerbilder auf Material zum sexuellen Missbrauch von Kindern (CSAM) zu scannen, vor dem Hochladen in die Cloud verschieben, sagt das Unternehmen nach einer Gegenreaktion von Datenschutzgruppen.

Der Vorschlag des Unternehmens, der erstmals im August bekannt gegeben wurde, beinhaltete eine neue Technik namens „Wahrnehmungs-Hashing“, um Fotos mit bekannten Bildern von Kindesmissbrauch zu vergleichen, wenn Benutzer sich dafür entschieden, sie in die Cloud hochzuladen. Wenn das Unternehmen genügend Übereinstimmungen entdeckte, überprüfte es die Bilder manuell, bevor das Benutzerkonto an die Strafverfolgungsbehörden gemeldet wurde.

Weiterlesen…