iOS 17: Apples Kampf gegen Aktfotos geht mit Aktualisierungen der Kommunikationssicherheit auf die ganze Welt über

Vor Jahren hat Apple in einem meisterhaften strategischen Schachzug sein Arsenal gegen den Erzkonkurrenten Google um eine starke Waffe erweitert: verbesserte Privatsphäre und Sicherheit der Benutzerdaten.
Aufgrund der natürlichen Stärken und Schwächen beider Unternehmen war es notwendig, dies zu tun: Apple war ein Unternehmen, das sowohl die Hardware als auch die Software der von ihm verkauften Geräte kontrollierte; und Google ist größtenteils ein Software- und Dienstleistungsunternehmen, das für alle möglichen Zwecke stark auf Unmengen von Benutzerdaten angewiesen ist.
Seitdem haben einige Unternehmen (einschließlich Google) mit unterschiedlichem Erfolg versucht, auf den Datenschutz-Zug aufzuspringen. Es fühlt sich jedoch so an, als ob Apple weiterhin die Spitzenposition behält, wenn es darum geht, das nötige Vertrauen aufzubauen und aufrechtzuerhalten, damit Kunden wirklich die Botschaft kaufen können, dass ihre persönlichen Daten sicher und zuverlässig sind.
Deshalb ist es nicht allzu überraschend, dass Apple mit iOS 17 den Ausbau von Datenschutz und Sicherheit verdoppelt (und verdreifacht), einschließlich Communication Safety – einer intelligenten Kindersicherungsfunktion, die Ende 2021 eingeführt wurde und ihre Präsenz erweitert hat seitdem.

Kommunikationssicherheit: Verwischen sensibler (Nackt-)Fotos, die Sie senden oder empfangen

Eines der größeren Updates in iOS 17 betrifft die Kommunikationssicherheit, also die Funktion, die „sensible“ Fotos (sprich: mit Nacktfotos) auf dem Weg in oder aus dem iPhone oder iPad eines Kindes automatisch erkennt und unkenntlich macht.

Ursprünglich war Communication Safety nur als Kindersicherungsfunktion gedacht, die es Eltern ermöglicht, den Filter auf den Geräten ihrer Kinder zu aktivieren, die Teil ihrer Familienfreigabegruppe sind.

Warnung Erwachsene

Und während der Kommunikationssicherheitsfilter in erster Linie eine Kindersicherungsfunktion bleibt, um Kinder so sicher wie möglich zu halten, wird es iOS 17 ermöglichen, den Komfort der Kommunikationssicherheit auch auf dem iPhone eines Erwachsenen zu aktivieren. Das bedeutet, dass Sie jedes Mal, wenn ein sensibles Foto oder Video an Ihr Gerät gesendet oder empfangen werden soll, eine Warnung und einen Unschärfefilter aktivieren möchten.

Auch wenn man als Erwachsener völlig frei ist, beliebige Inhalte auf seinem Telefon zu senden und zu empfangen, kann ich mir vorstellen, dass diese Option von vielen Menschen da draußen als praktisch und nützlich angesehen wird. Zumindest bedeutet es, dass Sie sich den Schock ersparen können, unerwartet ein Nacktfoto von jemandem zu erhalten, von dem Sie nie gedacht hätten, dass Sie ihm so nahe stehen.

Generell wäre ich überrascht, wenn zu viele tatsächlich der Versuchung widerstehen würden, genau zu überprüfen, was sie erhalten haben, aber darum geht es nicht. Wenn Sie darüber nachdenken, möchten manche Menschen vielleicht nichts mit den „sensiblen Teilen“ von Fremden oder … den meisten anderen Menschen zu tun haben, und das ist ein Recht, das absolut schützenswert ist.

„Standardmäßig aktiviert“ für Kinder unter 13 Jahren

Die aktuelle Richtlinie sah vor, dass die Kommunikationssicherheit standardmäßig deaktiviert ist. Da Eltern jetzt jedoch Konten für ihre Kinder unter 13 Jahren erstellen und diese zur Familienfreigabe hinzufügen, sind alle Sicherheitsfilter und Benachrichtigungen standardmäßig aktiviert.

Kinder unter 13 Jahren können keine eigenen Apple-IDs erstellen – sie müssen von den Eltern hinzugefügt werden; während die Kindersicherung in der Familienfreigabe funktioniert, bis Kinder 18 Jahre alt sind.

Über Nachrichten hinaus wachsend: AirDrop, FaceTime und Apps von Drittanbietern

Nun, all dieses Gerede über den Schutz von Kindern, Ihr Recht, keinem expliziten Material ausgesetzt zu werden usw. würde nicht viel nützen, wenn sich alles nur auf Apple Messages beschränken würde, oder? Aus diesem Grund erweitert Apple alle Kommunikationssicherheitsfunktionen auf andere iOS-Apps und -Funktionen wie AirDrop, FaceTime, die systemweite Fotoauswahl und die neuen Kontaktposter.

Was noch größere Auswirkungen haben könnte, ist das neue Framework zur Analyse sensibler Inhalte, das Apple für Entwickler entwickelt hat und es ihnen ermöglicht, Kommunikationssicherheit in Kommunikations-Apps von Drittanbietern zu implementieren. Dies könnte theoretisch bedeuten, dass beliebte IM-Apps wie Messenger, Skype, WhatsApp und andere möglicherweise Communication Safety erhalten, wenn ihre Entwickler beschließen, die neue API zu nutzen.

Derzeit gibt es keine offiziellen Informationen über beliebte Messaging-Apps, die an der Integration der Analyse sensibler Inhalte arbeiten, aber offenbar testen einige Entwickler bereits das Wasser, wobei das Discord-Team dem ziemlich positiv gegenübersteht, wie ein Apple-Vertreter erwähnte.

Global expandieren

Nach der exklusiven Einführung in den USA Ende 2021 wurde die Verfügbarkeit von Communication Safety zweimal ausgeweitet, um mehrere andere wichtige Märkte abzudecken, darunter Großbritannien, Kanada, Deutschland, Belgien, Japan und Südkorea.

Mit iOS 17 wird die Nackterkennungsfunktion nun weltweit verfügbar sein, sodass Benutzer sie nutzen können (wenn sie möchten), unabhängig davon, wo sie sich befinden.

Wir leben in einer Welt, in der Nacktheit fast zur Normalität geworden ist und man es kaum vermeiden kann, mit expliziten Bildern (und Videos) bombardiert zu werden, egal wie alt man ist. Eltern können ihren Teil dazu beitragen, den Kontakt ihrer Kinder mit solchem ​​Material zu begrenzen, und natürlich können solche Bemühungen viel bewirken, aber dieser Schutzschild ist alles andere als undurchdringlich. Deshalb ist es von großem Nutzen, die größten Technologieunternehmen der Welt an Ihrer Seite zu haben.

source site-33