Sind die neuen umstrittenen Kinderschutzfunktionen von Apple tatsächlich sicher?

Veröffentlicht: 2021-08-17

Vor ein paar Wochen kündigte Apple seine Pläne an, mit dem Scannen der Telefone von Benutzern zu beginnen, um Material über sexuellen Missbrauch von Kindern (CSAM) zu bekämpfen. Während viele Menschen die neue Richtlinie gelobt haben, gibt es einige, die glauben, dass die neuen Richtlinien eine „Hintertür“ öffnen könnten, die möglicherweise die Privatsphäre der Benutzer bedrohen könnte.

Apple ist ein Unternehmen, das die Privatsphäre seiner Benutzer schon immer sehr geschätzt hat. Die jüngsten Aktualisierungen der Datenschutzrichtlinien wurden von Datenschützern überall gelobt (während sie gleichzeitig Mark Zuckerbergs Federn bei Facebook aufmischen).

Aber diese neue Richtlinie lässt einige Leute in Frage stellen, ob Apples Bemühungen zur Bekämpfung der sexuellen Ausbeutung von Kindern sicher sind oder nicht. Um dieses Gespräch weiterzuführen, werfen wir einen Blick darauf, was die neuen Richtlinien bewirken werden.

Apples neue Kinderschutzrichtlinien

Die Anfang dieses Monats angekündigten neuen Richtlinien lassen sich in drei grundlegende Kategorien einteilen. Die erste ist relativ einfach und unumstritten. Apple leitet jetzt Suchthemen im Zusammenhang mit CSAM an Ressourcen weiter, um sie an die Strafverfolgungsbehörden zu melden oder andere Arten von Hilfe zu erhalten.

Die Kontroverse liegt in den nächsten beiden Merkmalen. Zunächst wird Apple eine Kindersicherung hinzufügen, die Nachrichten auf CSAM scannt. Es kann diese Inhalte für Benutzer unter 18 Jahren blockieren und sie sogar Eltern von Benutzern unter 13 Jahren melden.

Das letzte Update betrifft iCloud Photos. Apple sagte, es werde auch damit beginnen, Fotos zu scannen, die Benutzer mit iCloud für CSAM synchronisieren. Wenn das Unternehmen genügend CSAM-Übereinstimmungen von einem Benutzer findet, sendet es diese Fotos an einen Apple-Moderator, der dann das National Center for Missing and Exploited Children (NCMEC) benachrichtigen kann.

Apple hat dafür gesorgt, dass die Privatsphäre der Benutzer bei der Entwicklung dieser Funktionen eine hohe Priorität hat, aber es gibt einige, die dem nicht zustimmen. Warum sind die Leute also besorgt über diese neuen Funktionen?

Warum sind manche Leute besorgt über die neuen Funktionen von Apple?

ios apple iphone mit apps und wlan-verbindung
Bild: Unsplash

Die Funktion, die bisher am umstrittensten zu sein scheint, ist das Scannen der iCloud-Fotos der Benutzer, aber dazu kommen wir gleich. Werfen wir zunächst einen Blick auf die neue Nachrichtenfunktion. Mit dieser neuen Funktion gibt Apple Eltern mehr Kontrolle, indem es sie benachrichtigt, wenn ein Benutzer unter 13 Jahren Bilder mit CSAM erhalten (und angesehen) hat.

Die einzige wirkliche Sorge, die sich aus dieser Funktion ergibt, ist, dass sie Eltern mehr Möglichkeiten gibt, ihre Kinder zu beschnüffeln. Einige Leute glauben, dass dies Kindern möglicherweise schaden könnte, indem sie queere und transsexuelle Kinder vor ihren neugierigen Eltern outen.

Die meisten Bedenken bezüglich dieser neuen Richtlinien beziehen sich auf die neue Funktion zum Scannen von Fotos von Apple. Für in den USA ansässige iOS- oder iPadOS-Benutzer wird Apple bald damit beginnen, Ihre Fotos zu scannen, wenn Sie sie mit iCloud synchronisieren. Apple ist nicht das einzige Unternehmen, das Benutzerfotos für CSAM scannt. Viele Plattformen scannen nach CSAM, aber der Unterschied besteht darin, wo das Scannen stattfindet.

Wie funktioniert das neue CSAM-Scanning des Unternehmens?

Die meisten Plattformen scannen Inhalte, die auf ihre Server hochgeladen werden. Im Fall von Apple findet das Scannen tatsächlich lokal auf Ihrem Gerät statt. Ich weiß, es ist ein bisschen verwirrend, also lass mich das klarstellen. Immer wenn Sie Ihre Fotos mit iCloud Photos synchronisieren, scannt Apple Ihr Gerät mit CSAM nach Fotos. Apple-Moderatoren werden dann benachrichtigt, wenn mehrere CSAM-Übereinstimmungen auf Ihrem Gerät gefunden werden, und sie haben die Möglichkeit, die zuständigen Behörden beim NCMEC zu benachrichtigen.

Die Bedenken bei diesen neuen Richtlinien liegen hauptsächlich in der Tatsache, dass Apple Ihr Telefon jetzt lokal scannen wird, anstatt seine Cloud-Server zu scannen, um zu versuchen, CSAM zu finden. Ein Kritiker der neuen Politik, Ben Thompson, schrieb bei Stratechery :

„Anstatt iCloud Photos in der Cloud, die sie besitzen und betreiben, CSAM-Scanning hinzuzufügen, kompromittiert Apple das Telefon, das Sie und ich besitzen und betreiben, ohne dass einer von uns ein Mitspracherecht hat. Ja, Sie können iCloud Photos deaktivieren, um das Scannen von Apple zu deaktivieren, aber das ist eine Richtlinienentscheidung; Es gibt jetzt die Möglichkeit, in das Telefon eines Benutzers zu greifen, und es gibt nichts, was ein iPhone-Benutzer tun kann, um es loszuwerden.“

Das Problem ist, dass Apple jetzt einen Präzedenzfall geschaffen hat, der es ermöglicht, Benutzerdaten auf ihren Telefonen statt auf den Servern des Unternehmens einzusehen. Obwohl Apple sagt, dass es nur die Fotos scannt, die Benutzer mit iCloud synchronisieren, bleibt die Tatsache bestehen, dass das Unternehmen bald damit beginnen wird, die Geräte der Benutzer zu scannen, wenn sie den iCloud-Dienst verwenden.

Apple wehrt sich gegen diese Bedenken

iPhone auf dem Tisch
Bild: Unsplash

Trotz der wachsenden Besorgnis über seine neuen Richtlinien hält Apple an seinen Waffen fest und versucht, den Benutzern zu gewährleisten, dass ihre Privatsphäre nach der Umsetzung der Richtlinien intakt bleibt. Das Unternehmen veröffentlichte ein Dokument mit häufig gestellten Fragen zu den Bedenken, die die Menschen hinsichtlich der Änderungen haben.

In dem Dokument versichert Apple den Benutzern, dass die End-to-End-Verschlüsselung von Messages von diesen Änderungen nicht betroffen ist und dass es „durch diese Funktion in Messages niemals Zugriff auf die Kommunikation erhält“. Darüber hinaus wurde das FAQ-Dokument zum Scannen von iCloud-Fotos erweitert und wiederholt, dass, obwohl die Scans lokal durchgeführt werden, nur Bilder gescannt werden, die mit iCloud geteilt werden. Warum dieses Scannen lokal statt nach Abschluss der Freigabe erfolgt, ist noch fraglich.

Das Unternehmen ging auch auf Bedenken ein, dass diese neuen Richtlinien von Ländern verwendet werden könnten, die die Rechte von Apple-Benutzern verletzen wollen, indem sie tiefer in die Inhalte Ihres Geräts eintauchen. Apple bestätigte, dass sie jede Anfrage dieser Art ablehnen würden, und sagte Folgendes:

„Wir wurden schon früher mit Forderungen konfrontiert, staatlich angeordnete Änderungen zu entwickeln und bereitzustellen, die die Privatsphäre der Benutzer beeinträchtigen, und haben diese Forderungen standhaft abgelehnt. Wir werden sie auch in Zukunft ablehnen. Lassen Sie uns klarstellen, dass diese Technologie darauf beschränkt ist, in iCloud gespeicherte CSAM zu erkennen, und wir werden dem Antrag einer Regierung, sie zu erweitern, nicht nachkommen.“

Ungeachtet aller bisher geäußerten Bedenken hat Apple diese neuen Funktionen nicht zurückgezogen. Alle drei dieser Kinderschutz-Updates werden später in diesem Jahr in Updates für iOS 15, iPadOS 15, watchOS 8 und macOS Monterey erscheinen.

Nach dem, was ich bisher gesehen habe, scheinen diese Änderungen ziemlich gut zu sein. CSAM ist absolut widerlich, und es ist gut zu sehen, dass Apple proaktiv versucht, es so weit wie möglich von seinen Plattformen zu entfernen, ohne die Sicherheit der Benutzer zu beeinträchtigen. Es scheint, dass die Schritte, die das Unternehmen zum Schutz der Privatsphäre ergriffen hat, ausreichend sind, aber wir müssen abwarten, ob dies auch nach der Umsetzung der Fall bleibt.

Haben Sie irgendwelche Gedanken dazu? Lassen Sie es uns unten in den Kommentaren wissen oder übertragen Sie die Diskussion auf unseren Twitter oder Facebook.

Empfehlungen der Redaktion:

  • Der CEO von WhatsApp ist definitiv kein Fan von Apples neuer umstrittener Funktion zum Scannen von Fotos
  • Die Apple Watch hat ein weiteres Leben gerettet, nachdem ein Mann in ein Badezimmer gefallen war
  • Alles, was wir über das iPhone 13 wissen: Leaks, Gerüchte, Veröffentlichungsdatum und mehr
  • Apple hat gerade bestätigt, dass es mit dem Scannen von iPhone- und iCloud-Fotos nach Bildern von Kindesmissbrauch beginnen wird