Apples iCloud Photo Scanning Tool ist alarmierend. Gibt es Hoffnung dafür?

Die Absichten von Apple sind gut, aber Sicherheitsexperten sind der Meinung, dass das CSAM-Erkennungstool weitreichende Möglichkeiten für Missbrauch bietet. Ein Mittelweg ist jedoch nicht unmöglich.

Im August dieses Jahres, Apfel kündigte eine neue Kindersicherheitsfunktion an, um die iCloud-Bibliothek zu scannen, um nach Bildern von Material zum sexuellen Missbrauch von Kindern (CSAM) zu suchen und sie den Behörden entsprechend zu melden. Die Funktion wird in iOS und iPadOS integriert. Es wird nach Fotos suchen, bevor sie im Cloud-Dienst von Apple gespeichert werden. Die Ankündigung stieß auf großen Widerstand von Datenschutzbeauftragten und der Forschungsgemeinschaft, die Erfahrung im Umgang mit dieser Technologie hat.

Apple holte Kommentare von Kindersicherheitsgruppen und Cybersicherheitsexperten ein, die die Initiative lobten. Aber für ein Unternehmen, das sich den Versuchen widersetzt hat, die iPhone-Verschlüsselung zu umgehen, sogar für Strafverfolgungsbehörden, wurde Apples Schritt mit einer eng begrenzten Hintertür verglichen, die nach Belieben oder unter Druck erweitert werden kann. In langen Apple-Dokumenten wurde über die Wirksamkeit des Systems gesprochen und wie es die Privatsphäre nicht beeinträchtigt, aber es gibt immer noch viele Bedenken. Die erste Frage ist, ob der Umfang anstößiger Inhalte auf CSAM-Bilder beschränkt bleibt oder ob Apple unter politischem Druck nachgibt.


Verwandte: Können Apples AirTags Personen verfolgen und schützen sie die Privatsphäre?

Apples Loyalität zu Konzepten wie „Meinungsfreiheit“ fließt in China in eine andere Richtung als das, was das Unternehmen in den USA oder im Rest der Welt bewirbt. Apple sagt, es werde keine Kompromisse eingehen, aber in einem Land, das das Rückgrat seiner Produktionsbetriebe bildet und einen beträchtlichen Teil der Einnahmen ausmacht, steht die Gefahr, dass der Wille der Regierung nicht eingehalten wird, unglaublich hoch. Russland und mehrere afrikanische Nationen haben kürzlich die Beschränkungen für Plattformen für anstößige Inhalte verschärft und Unternehmen unter Druck gesetzt, mehr Daten herauszugeben. Forscher sagen Das CSAM-Scansystem von Apple ist eine gefährliche Technologie und eine Datenschutzlücke, die darauf wartet, ausgenutzt zu werden. Gleichzeitig wurde es sogar als Beginn eines Orwellschen Massenüberwachungssystems im Gewand der Kindersicherheit bezeichnet.

Apple muss proaktiv sein, nicht pompös

Apple CSAM Scan auf iPhones für Bilder von Kindesmissbrauch

Apple hat ausführlich über die Genauigkeit des Systems gesprochen, aber Hackern ist es bereits gelungen, eine frühe Version davon dazu zu bringen, einen falsch positiven Alarm zu erzeugen, wenn sie einem Nicht-CSAM-Bild ausgesetzt ist Vize. Das Unternehmen sagt, dass es die US-Gesetze zu unangemessenen Inhalten einhalten muss und bezieht die CSAM-Datenbank von NCMEC (National Center for Missing & Exploited Children). Andere Länder können Apple jedoch bitten, sich auf CSAM-Image-Hashes von lokalen Kindersicherheitsorganisationen zu verlassen, was möglicherweise nicht so effektiv ist und den Entwicklungsprozess eines bereits verzögerten Systems weiter erschweren würde. Apple hat auch keinen zuverlässigen Rahmen um die CSAM-Elternalarmfunktion herum aufgebaut, die sich für Kinder in missbräuchlichen Haushalten als ein Problem erweisen könnte.

Es besteht kein Zweifel, dass die Initiative edel ist, aber für ein Unternehmen, das stolz auf die Privatsphäre und Sicherheit seines Ökosystems ist, muss es mehr tun, als nur FAQ-Papiere zu veröffentlichen und die Risiken in Interviews herunterzuspielen. Apple muss das Projekt nicht schließen. Was es tun muss, ist, die wahrgenommenen Mängel zu beheben und mehr als nur eine verbale Garantie zu bieten. Apple muss seine Kunden als Interessenvertreter in Bezug auf den Datenschutz behandeln und nach Möglichkeit eine rechtsverbindliche Versicherung abgeben, dass das CSAM-System nicht ausgenutzt wird. Auf diese Weise können Millionen von iPhone-Nutzern darauf vertrauen, dass sie Apple zur Rechenschaft ziehen und für Schäden entschädigt werden können, wenn ihre Privatsphäre verletzt wird.

Über Die Washington Post, halten Cybersicherheitsexperten, die zuvor an ähnlichen Projekten gearbeitet haben, die ganze Idee für gefährlich, während Datenschutzbefürworter behaupten, sie stelle einen gefährlichen Präzedenzfall dar. Apple muss einen transparenten und offenen Dialog mit der Cybersecurity-Community führen und ihnen durch praktische Demonstrationen versichern, dass sein CSAM-Fotoscansystem nicht ausgetrickst oder ausgenutzt werden kann. Dies erfordert einige Zeit und viel Vorsicht, aber es würde einen großen Beitrag dazu leisten, berechtigte Bedenken auszuräumen.

Es liegt in der Verantwortung von Apple, einen konstruktiven Dialog mit Experten zu führen und einen Mittelweg zu finden, auf dem sich die CSAM-Scantechnologie verbessern kann, ohne invasiv zu sein. Das Unternehmen hat definitiv die Reichweite und die Ressourcen, um dies zu erreichen. Dies nicht zu tun, wäre eine arrogante Haltung – eine, die letztendlich verraten wird Äpfel ganz eigene Datenschutzgrundsätze. Noch wichtiger ist, dass es die Schleusen für invasivere Systeme öffnen wird, die die Privatsphäre von Milliarden von Smartphone-Nutzern gefährden und sie der Gnade obszön wohlhabender Unternehmen und autoritärer Regierungen aussetzen.

Der nächste streifen: Warum Apples Tim Cook sagt, dass eine Regulierung des technischen Datenschutzes erforderlich ist

Quellen: arXiv, VIZE, Die Washington Post

die ewigen Himmlischen Wächter der Galaxis

MCU-Zusammenfassung: Welche Marvel-Filme Sie sich ansehen sollten, um die Ewigkeit zu verstehen?


Über den Autor


source site