Являются ли новые противоречивые функции Apple по защите детей действительно безопасными?

Опубликовано: 2021-08-17

Пару недель назад Apple объявила о своих планах начать сканирование телефонов пользователей в целях борьбы с материалами о сексуальном насилии над детьми (CSAM). Хотя многие люди хвалят новую политику, есть и те, кто считает, что новые политики могут открыть «черный ход», который потенциально может угрожать конфиденциальности пользователей.

Apple — компания, которая всегда очень высоко ценила конфиденциальность своих пользователей. Его недавние обновления политики конфиденциальности получили высокую оценку защитников конфиденциальности во всем мире (одновременно раздражая Марка Цукерберга в Facebook).

Но эта новая политика заставляет некоторых людей сомневаться в безопасности усилий Apple по борьбе с сексуальной эксплуатацией детей. Чтобы развернуть этот разговор, давайте посмотрим, что именно будут делать новые политики.

Новая политика Apple по защите детей

Новые политики, объявленные ранее в этом месяце, сводятся к трем основным категориям. Первый относительно прост и бесспорен. Apple теперь будет направлять темы поиска, связанные с CSAM, на ресурсы для сообщения в правоохранительные органы или получения другой помощи.

Противоречие заключается в следующих двух особенностях. Во-первых, Apple добавит родительский контроль, который сканирует сообщения на наличие CSAM. Он может блокировать этот контент для пользователей младше 18 лет и даже сообщать об этом родителям пользователей младше 13 лет.

Последнее обновление касается iCloud Photos. Apple заявила, что также начнет сканировать фотографии, которые пользователи синхронизируют с iCloud для CSAM. Если компания находит у пользователя достаточно совпадений CSAM, она затем отправит эти фотографии модератору Apple, который затем уведомит Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC).

Apple позаботилась о том, чтобы конфиденциальность пользователей была приоритетом при разработке этих функций, но есть и те, кто с этим не согласен. Так почему же люди обеспокоены этими новыми функциями?

Почему некоторые люди обеспокоены новыми функциями Apple?

iOS Apple iPhone показывает приложения и соединение Wi-Fi
Изображение: Unsplash

Функция, которая на данный момент кажется наиболее спорной, — это сканирование фотографий iCloud пользователей, но мы вернемся к этому через минуту. Во-первых, давайте взглянем на новую функцию «Сообщения». С помощью этой новой функции Apple дает родителям больше контроля, уведомляя их, если пользователь младше 13 лет получил (и просмотрел) изображения, содержащие CSAM.

Единственная реальная проблема, связанная с этой функцией, заключается в том, что она дает родителям больше возможностей следить за своими детьми. Некоторые люди считают, что это может потенциально навредить детям, выдавая квир- и трансгендерных детей их любопытным родителям.

Большая часть беспокойства по поводу этих новых политик связана с новой функцией сканирования фотографий Apple. Для пользователей iOS или iPadOS из США Apple скоро начнет сканировать ваши фотографии всякий раз, когда вы синхронизируете их с iCloud. Apple — не единственная компания, которая сканирует фотографии пользователей на наличие CSAM. Многие платформы сканируют CSAM, но разница заключается в том, где происходит сканирование.

Как работает новое сканирование CSAM компании?

Большинство платформ сканируют контент, загружаемый на их серверы. В случае с Apple сканирование будет происходить локально, на вашем устройстве. Я знаю, это немного сбивает с толку, поэтому позвольте мне пояснить. Всякий раз, когда вы синхронизируете свои фотографии с iCloud Photos, Apple будет сканировать ваше устройство на наличие фотографий с помощью CSAM. Затем модераторы Apple получают предупреждение, когда на вашем устройстве обнаруживается несколько совпадений CSAM, и у них есть возможность предупредить соответствующие органы в NCMEC.

Проблемы с этими новыми политиками в основном связаны с тем фактом, что Apple теперь будет сканировать ваш телефон локально, а не сканировать свои облачные серверы, чтобы попытаться найти CSAM. Один критик новой политики Бен Томпсон написал в Stratechery :

«Вместо того, чтобы добавить сканирование CSAM в iCloud Photos в облаке, которым они владеют и управляют, Apple компрометирует телефон, которым владеем и пользуемся вы и я, и никто из нас не имеет права голоса в этом вопросе. Да, вы можете отключить iCloud Photos, чтобы отключить сканирование Apple, но это политическое решение; теперь существует возможность доступа к телефону пользователя, и пользователь iPhone ничего не может сделать, чтобы избавиться от нее».

Проблема в том, что Apple создала прецедент, позволяющий просматривать данные пользователей на их телефонах, а не на серверах компании. Несмотря на то, что Apple заявляет, что сканирует только те фотографии, которые пользователи синхронизируют с iCloud, факт остается фактом: вскоре компания начнет сканировать устройства пользователей всякий раз, когда они используют сервис iCloud.

Apple борется с этими опасениями

айфон на столе
Изображение: Unsplash

Несмотря на растущую озабоченность по поводу своей новой политики, Apple придерживается своей позиции и пытается гарантировать пользователям, что их конфиденциальность останется нетронутой после того, как политика будет реализована. Компания выпустила документ с часто задаваемыми вопросами, касающийся опасений людей по поводу изменений.

В документе Apple гарантирует пользователям, что эти изменения не повлияют на сквозное шифрование Messages и что она «никогда не получит доступ к сообщениям в результате этой функции в Messages». Кроме того, в документе часто задаваемых вопросов подробно о сканировании фотографий iCloud повторяется, что, хотя сканирование выполняется локально, сканируются только изображения, которые передаются в iCloud. Почему это сканирование происходит локально, а не после того, как общий доступ был завершен, все еще остается вопросом.

Компания также обратилась к опасениям, что эти новые политики могут быть использованы странами, которые хотят нарушить права пользователей Apple, углубившись в содержимое вашего устройства. Apple подтвердила, что отклонит любой запрос такого рода, заявив следующее:

«Мы уже сталкивались с требованиями разработать и внедрить санкционированные правительством изменения, которые нарушают конфиденциальность пользователей, и решительно отказывались от этих требований. Будем и дальше от них отказываться. Давайте проясним, эта технология ограничена обнаружением CSAM, хранящегося в iCloud, и мы не будем выполнять просьбы какого-либо правительства о ее расширении».

Несмотря на любые опасения, которые возникли до сих пор, Apple не отказалась от этих новых функций. Все три обновления для защиты от детей появятся позже в этом году в обновлениях для iOS 15, iPadOS 15, watchOS 8 и macOS Monterey.

Из того, что я видел до сих пор, эти изменения кажутся довольно хорошими. CSAM абсолютно отвратительна, и приятно видеть, что Apple активно пытается устранить ее со своих платформ, насколько это возможно, не нанося ущерба безопасности пользователей. Кажется, что шагов, предпринятых компанией для защиты конфиденциальности, достаточно, но нам придется подождать и посмотреть, останется ли это так после того, как они будут реализованы.

Есть какие-нибудь мысли по этому поводу? Дайте нам знать внизу в комментариях или перенесите обсуждение в наш Twitter или Facebook.

Рекомендации редакции:

  • Генеральный директор WhatsApp определенно не является поклонником новой противоречивой функции Apple по сканированию фотографий.
  • Apple Watch спасли еще одну жизнь после падения мужчины в ванной
  • Все, что мы знаем об iPhone 13: утечки, слухи, дата выхода и многое другое
  • Apple только что подтвердила, что начнет сканировать фотографии iPhone и iCloud на наличие изображений жестокого обращения с детьми.