Czy nowe kontrowersyjne funkcje ochrony dzieci firmy Apple są rzeczywiście bezpieczne?

Opublikowany: 2021-08-17

Kilka tygodni temu firma Apple ogłosiła plany rozpoczęcia skanowania telefonów użytkowników w celu zwalczania materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM). Chociaż wiele osób chwali nowe zasady, niektórzy uważają, że nowe zasady mogą otworzyć „tylne drzwi”, które mogą potencjalnie zagrażać prywatności użytkowników.

Apple to firma, która zawsze bardzo ceniła prywatność swoich użytkowników. Jej ostatnie aktualizacje polityki prywatności są chwalone przez zwolenników prywatności na całym świecie (jednocześnie strosząc pióra Marka Zuckerberga na Facebooku).

Jednak ta nowa polityka powoduje, że niektórzy ludzie kwestionują, czy wysiłki Apple na rzecz zwalczania wykorzystywania seksualnego dzieci są bezpieczne. Aby rozwinąć tę rozmowę, przyjrzyjmy się dokładnie, co zrobią nowe zasady.

Nowe zasady Apple dotyczące ochrony dzieci

Nowe zasady ogłoszone na początku tego miesiąca sprowadzają się do trzech podstawowych kategorii. Pierwsza jest stosunkowo prosta i nie kontrowersyjna. Apple będzie teraz kierować tematy wyszukiwania związane z CSAM do zasobów umożliwiających zgłaszanie organom ścigania lub uzyskiwanie innego rodzaju pomocy.

Kontrowersje tkwią w dwóch kolejnych funkcjach. Najpierw Apple doda kontrolę rodzicielską, która skanuje Wiadomości pod kątem CSAM. Może blokować te treści użytkownikom poniżej 18 roku życia, a nawet zgłaszać je rodzicom użytkowników poniżej 13 roku życia.

Ostatnia aktualizacja obejmuje Zdjęcia iCloud. Apple powiedział, że rozpocznie również skanowanie zdjęć, które użytkownicy synchronizują z iCloud dla CSAM. Jeśli firma znajdzie wystarczającą liczbę dopasowań CSAM od użytkownika, wyśle ​​te zdjęcia do moderatora Apple, który może następnie powiadomić National Center for Missing and Exploited Children (NCMEC).

Firma Apple zapewniła, że ​​prywatność użytkowników ma wysoki priorytet podczas projektowania tych funkcji, ale niektórzy się z tym nie zgadzają. Dlaczego więc ludzie są zaniepokojeni tymi nowymi funkcjami?

Dlaczego niektórzy są zaniepokojeni nowymi funkcjami Apple?

iOS Apple iPhone pokazujący aplikacje i połączenie Wi-Fi
Obraz: Unsplash

Funkcja, która wydaje się jak dotąd najbardziej kontrowersyjna, to skanowanie zdjęć iCloud użytkowników, ale do tego dojdziemy za chwilę. Najpierw przyjrzyjmy się nowej funkcji Wiadomości. Dzięki tej nowej funkcji Apple daje rodzicom większą kontrolę, powiadamiając ich, jeśli użytkownik w wieku poniżej 13 lat otrzymał (i obejrzał) obrazy zawierające CSAM.

Jedynym prawdziwym problemem, który wynika z tej funkcji, jest to, że daje ona rodzicom większą możliwość podglądania swoich dzieci. Niektórzy uważają, że może to potencjalnie zranić dzieci, jeśli queerowe i transpłciowe dzieci będą spotykać się z ich wścibskimi rodzicami.

Większość obaw związanych z tymi nowymi zasadami dotyczy nowej funkcji skanowania zdjęć firmy Apple. W przypadku użytkowników iOS lub iPadOS z USA Apple wkrótce rozpocznie skanowanie zdjęć za każdym razem, gdy zsynchronizujesz je z iCloud. Apple nie jest jedyną firmą, która skanuje zdjęcia użytkowników pod kątem CSAM. Wiele platform skanuje w poszukiwaniu CSAM, ale różnica polega na tym, gdzie odbywa się skanowanie.

Jak działa nowe skanowanie CSAM firmy?

Większość platform skanuje treści przesyłane na ich serwery. W przypadku Apple skanowanie będzie faktycznie odbywać się lokalnie, na twoim urządzeniu. Wiem, to trochę zagmatwane, więc wyjaśnię. Za każdym razem, gdy zsynchronizujesz swoje zdjęcia ze Zdjęciami iCloud, Apple przeskanuje Twoje urządzenie w poszukiwaniu zdjęć za pomocą CSAM. Moderatorzy Apple są następnie powiadamiani, gdy na Twoim urządzeniu zostanie znalezionych kilka dopasowań CSAM, i mają możliwość powiadomienia odpowiednich władz w NCMEC.

Obawy związane z tymi nowymi zasadami polegają głównie na tym, że Apple będzie teraz skanować Twój telefon lokalnie, zamiast skanować swoje serwery w chmurze, aby spróbować znaleźć CSAM. Jeden z krytyków nowej polityki, Ben Thompson, napisał w Stratechery :

„Zamiast dodawać skanowanie CSAM do iCloud Photos w chmurze, której są właścicielami i które obsługują, Apple naraża na szwank telefon, który ty i ja posiadamy i obsługujemy, bez żadnego z nas głosu w tej sprawie. Tak, możesz wyłączyć Zdjęcia iCloud, aby wyłączyć skanowanie Apple, ale jest to decyzja dotycząca zasad; istnieje teraz możliwość dotarcia do telefonu użytkownika i użytkownik iPhone'a nie może nic zrobić, aby się go pozbyć”.

Problem polega na tym, że Apple ustanowił teraz precedens, który pozwala mu przeglądać dane użytkowników na ich telefonach zamiast na serwerach firmy. Chociaż Apple twierdzi, że skanuje tylko zdjęcia, które użytkownicy synchronizują z iCloud, faktem jest, że firma wkrótce rozpocznie skanowanie urządzeń użytkowników za każdym razem, gdy korzystają z usługi iCloud.

Apple walczy z tymi obawami

iPhone na stole
Obraz: Unsplash

Pomimo rosnących obaw związanych z nowymi zasadami, Apple trzyma się swoich broni i stara się zapewnić użytkownikom, że ich prywatność pozostanie nienaruszona po wdrożeniu zasad. Firma opublikowała dokument z często zadawanymi pytaniami dotyczący obaw, jakie ludzie mają w związku ze zmianami.

W dokumencie Apple zapewnia użytkownikom, że te zmiany nie będą miały wpływu na szyfrowanie wiadomości typu end-to-end i że „nigdy nie uzyska dostępu do komunikacji w wyniku tej funkcji w Wiadomościach”. Ponadto dokument z często zadawanymi pytaniami został rozszerzony o skanowanie zdjęć iCloud, powtarzając, że chociaż skany są wykonywane lokalnie, skanowane są tylko obrazy udostępniane w usłudze iCloud. Dlaczego to skanowanie odbywa się lokalnie, a nie po zakończeniu udostępniania, nadal pozostaje wątpliwe.

Firma odniosła się również do obaw, że te nowe zasady mogą być wykorzystywane przez kraje, które chcą naruszać prawa użytkowników Apple, zagłębiając się w zawartość urządzenia. Apple potwierdziło, że odrzuci każdą prośbę tego rodzaju, mówiąc:

„Spotykaliśmy się wcześniej z żądaniami stworzenia i wdrożenia wprowadzonych przez rząd zmian, które degradują prywatność użytkowników, i stanowczo odrzucaliśmy te żądania. W przyszłości nadal będziemy je odrzucać. Powiedzmy sobie jasno, ta technologia ogranicza się do wykrywania CSAM przechowywanego w iCloud i nie przychylimy się do prośby żadnego rządu o jej rozszerzenie.”

Niezależnie od wszelkich obaw, które pojawiły się do tej pory, Apple nie wycofał się z tych nowych funkcji. Wszystkie trzy aktualizacje dotyczące ochrony dzieci pojawią się jeszcze w tym roku w aktualizacjach iOS 15, iPadOS 15, watchOS 8 i macOS Monterey.

Z tego, co do tej pory widziałem, zmiany te wydają się całkiem niezłe. CSAM jest absolutnie obrzydliwy i dobrze jest widzieć, że Apple aktywnie stara się wyeliminować go ze swoich platform w jak największym stopniu, bez szkody dla bezpieczeństwa użytkowników. Wydaje się, że kroki podjęte przez firmę w celu ochrony prywatności są wystarczające, ale będziemy musieli poczekać i zobaczyć, czy tak będzie po ich wdrożeniu.

Masz jakieś przemyślenia na ten temat? Daj nam znać poniżej w komentarzach lub przenieś dyskusję na naszego Twittera lub Facebooka.

Rekomendacje redaktorów:

  • CEO WhatsApp zdecydowanie nie jest fanem nowej kontrowersyjnej funkcji skanowania zdjęć firmy Apple
  • Apple Watch uratował kolejne życie po tym, jak mężczyzna upadł w łazience
  • Wszystko, co wiemy o iPhonie 13: przecieki, plotki, data premiery i nie tylko
  • Apple właśnie potwierdziło, że rozpocznie skanowanie zdjęć iPhone'a i iCloud w poszukiwaniu obrazów przedstawiających wykorzystywanie dzieci