Apple löscht CSAM-Fotoscanfunktion aus der Kindersicherheitsdatenbank

Apple hat unerklärlicherweise alle Details zu seiner verzögerten CSAM-Erkennungsfunktion entfernt, mit der Fotos gescannt werden sollten, bevor sie in iCloud hochgeladen wurden.

Apfel hat auf mysteriöse Weise die Erwähnung seiner umstrittenen iCloud-Foto-Scan-Technologie zum Erkennen von Material über sexuellen Missbrauch von Kindern aus der Kindersicherheitsdatenbank des Unternehmens gelöscht, Monate nachdem die Funktion unter Berufung auf eine Menge Datenschutz- und Sicherheitsbedenken verschoben wurde. Kurz gesagt, die Scan-Technologie würde sich Bilder ansehen, die sexuellen Missbrauch und Ausbeutung von Kindern in irgendeiner Form zeigen, bevor sie in ihren iCloud-Online-Speicherdienst hochgeladen werden. Das gesamte Scannen soll auf dem Gerät erfolgen, und die Technik dahinter beinhaltet kryptografisches Hashing.

Ein Hash ist im Wesentlichen ein digitaler Fingerabdruck eines Bildes, der erhalten wird, indem es zum Zwecke des Abgleichs durch einen Algorithmus geleitet wird. Einfach ausgedrückt, würde Apple eine Hash-Version eines problematischen CSAM-Images von einer Behörde wie dem National Center for Missing & Exploited Children erhalten und auf iPhones speichern. Die in iCloud hochgeladenen Fotos sollten gescannt werden, und wenn sie mit den auf einem iPhone gespeicherten CSAM-Hashes übereinstimmen, würden sie analysiert und die Behörden entsprechend benachrichtigt. Aktivisten und Cybersicherheitsexperten haben während der gesamten Implementierung viele rote Fahnen gehisst, und es scheint eine endgültige Wirkung gezeigt zu haben.

SCREENRANT-VIDEO DES TAGES

Verwandte: So sollte Apple Smart Homes intelligenter machen

Zuerst entdeckt von MacRumors, Apple hat unerklärlicherweise alle Erwähnungen der iCloud-Foto-Scan-Technologie für CSAM-Bilder aus seiner Kindersicherheit entfernt Datenbank. Das FAQ-Dokument für den erweiterten Schutz für Kinder ist jedoch immer noch auf seinen Servern aktiv und beantwortet einige der wichtigsten Fragen (Lesen: Bedenken) zum gesamten System. Bisher hat Apple keine offizielle Erklärung dafür geliefert, warum alle Spuren seiner CSAM-Erkennungsfunktion für Fotos, die für den iCloud-Speicher bestimmt sind, verschwunden sind. Aufgrund der heftigen Kritik, die Apple von gemeinnützigen Organisationen wie der Electronic Frontier Foundation erhalten hat, könnte man vermuten, dass Apple dem Druck endgültig nachgegeben und beschlossen hat, den Stecker zu ziehen. Aber in den letzten Monaten hat Apple die Funktion auch mehrfach verteidigt. Es ist also durchaus plausibel, dass Apple lediglich die Sprache überarbeitet oder ein paar notwendige Anpassungen vornimmt, bevor sie wieder in die Kindersicherheitsdatenbank aufgenommen wird. Ab sofort befindet sich die Funktion in einem Zustand unbestimmter Verzögerung.


Warum löste Apples Umzug einen Sturm aus?

Apple CSAM iCLoud-Scan

Obwohl das System an sich komplex ist und Experten fast alle Aspekte im Detail aufgeschlüsselt haben, gibt es hier einen völlig leeren Verstoß – das Versprechen eines sicheren und privaten Ökosystems. Die ganze Idee, Fotos vor der Cloud-Speicherung und in der Nachrichten-App zu scannen, wurde von vielen als Überschreitung einer heiligen Grenze angesehen. Dann ist da noch das ganze Problem, dass der iCloud-Fotospeicher nicht verschlüsselt ist, was bedeutet, dass er anfällig für übermäßige Datenanforderungen durch repressive Regierungen, Hacking durch Dritte und sogar mögliches Eindringen von Apple-Mitarbeitern ist. Letzteres ist keine Seltenheit, denn eine aktuelle Untersuchung ergab, dass Amazon-Mitarbeiter routinemäßig sensible Kundendaten ausspionierten.


Zurück zu den iCloud-Fotoscan-Plänen von Apple zum Erkennen von CSAM-Bildern: Es gab auch Bedenken, dass Apple gezwungen sein könnte, den Umfang der Inhalte zu erweitern, nach denen aktiv in Bildern gesucht werden muss. Dies könnte enorme Auswirkungen haben, insbesondere in Ländern, in denen die Meinungsfreiheit in Gefahr ist und Aktivisten und Journalisten ständig überwacht werden. Obwohl Apfel versichert hat, unter Druck nicht nachzugeben und sich solchen Forderungen nicht zu stellen, ist das Unternehmen in der Vergangenheit bekanntlich erhebliche Kompromisse eingegangen. Ein brisanter Bericht von Die Information beleuchtete auch einen 275-Milliarden-Dollar-Deal, den Tim Cook zur Umgehung des regulatorischen Drucks in China, einem seiner größten Märkte und dem Zentrum seiner Hardware-Montage, zu sichern half.


Der nächste streifen: Sollte Apple seine iPhone-Foto-Scan-Pläne beenden?

Quellen: Apfel, MacRumors, Die Information

Robert Pattinson Der Batman

The Batman führt die Liste der am meisten erwarteten Filme von IMDb für 2022 an


Über den Autor

source site-42