Appleの新しい物議を醸す児童保護機能は実際に安全ですか?

公開: 2021-08-17

数週間前、Appleは、児童の性的虐待資料(CSAM)と戦うために、ユーザーの電話のスキャンを開始する計画を発表しました。 多くの人が新しいポリシーを賞賛していますが、新しいポリシーがユーザーのプライバシーを脅かす可能性のある「バックドア」を開く可能性があると考える人もいます。

Appleは、常にユーザーのプライバシーを非常に高く評価している会社です。 その最近のプライバシーポリシーの更新は、世界中のプライバシー擁護者から賞賛されています(同時に、FacebookでMark Zuckerbergの羽を乱暴にしています)。

しかし、この新しい方針には、子供の性的搾取と戦うためのAppleの努力が安全であるかどうかを疑問視する人々がいます。 この会話を展開するために、新しいポリシーが何をするかを正確に見てみましょう。

Appleの新しい児童保護ポリシー

今月初めに発表された新しいポリシーは、3つの基本的なカテゴリに要約されます。 1つ目は、比較的単純で物議を醸すものではありません。 Appleは、CSAMに関連する検索トピックを、法執行機関に報告したり、他の種類の支援を得たりするためのリソースに転送します。

論争は次の2つの機能にあります。 まず、AppleはメッセージをスキャンしてCSAMを探すペアレンタルコントロールを追加します。 18歳未満のユーザーに対してこのコンテンツをブロックし、13歳未満のユーザーの親に報告することもできます。

最後のアップデートにはiCloudPhotosが含まれます。 Appleは、ユーザーがiCloud forCSAMと同期する写真のスキャンも開始すると述べた。 会社がユーザーから十分なCSAM一致を見つけた場合、それらの写真をAppleモデレーターに送信し、AppleモデレーターはNational Center for Missing and Exploited Children(NCMEC)に通知できます。

Appleは、これらの機能を設計する際にユーザーのプライバシーを最優先に保つことを保証していますが、同意しない人もいます。 では、なぜ人々はこれらの新機能に関心を持っているのでしょうか。

Appleの新機能に関心を持っている人がいるのはなぜですか?

アプリとwifi接続を表示するiOSアップルのiPhone
画像:スプラッシュを解除

これまでで最も物議を醸していると思われる機能は、ユーザーのiCloud写真のスキャンですが、これについてはすぐに説明します。 まず、新しいメッセージ機能を見てみましょう。 この新機能により、Appleは、13歳未満のユーザーがCSAMを含む画像を受信(および表示)したかどうかを保護者に通知することで、保護者の管理を強化します。

この機能からもたらされた唯一の本当の懸念は、それが親に彼らの子供を詮索するより多くの能力を与えるということです。 一部の人々は、これがクィアやトランスジェンダーの子供たちをおせっかいな両親に外出することによって、子供たちを傷つける可能性があると信じています。

これらの新しいポリシーに関する懸念のほとんどは、Appleの新しい写真スキャン機能に関係しています。 米国を拠点とするiOSまたはiPadOSユーザーの場合、iCloudと同期するたびに、Appleはすぐに写真のスキャンを開始します。 ユーザーの写真をスキャンしてCSAMを探すのはAppleだけではありません。 多くのプラットフォームがCSAMをスキャンしますが、違いはスキャンが行われる場所です。

会社の新しいCSAMスキャンはどのように機能しますか?

ほとんどのプラットフォームは、サーバーにアップロードされたコンテンツをスキャンします。 Appleの場合、スキャンは実際にはデバイス上でローカルに行われます。 少し紛らわしいので、はっきりさせておきます。 写真をiCloudPhotosと同期するたびに、AppleはデバイスをスキャンしてCSAMで写真を探します。 その後、デバイスで複数のCSAM一致が検出されると、Appleモデレーターにアラートが送信され、NCMECの適切な機関にアラートを送信することができます。

これらの新しいポリシーに関する懸念は、主にAppleがCSAMを見つけるために、クラウドサーバーをスキャンするのではなく、ローカルで電話をスキャンするという事実にあります。 新しい政策の批評家の一人、ベン・トンプソンは、ストラテチェリーでこれを書いた:

「Appleは、彼らが所有し運営しているクラウドのiCloud PhotosにCSAMスキャンを追加する代わりに、あなたと私が所有し運営している電話を危険にさらしています。 はい、iCloud PhotosをオフにしてAppleのスキャンを無効にすることができますが、それはポリシーの決定です。 現在、ユーザーの電話にアクセスする機能があり、iPhoneユーザーがそれを取り除くためにできることは何もありません。」

問題は、Appleが、会社のサーバーではなく電話でユーザーデータを見ることができるという先例を設定したことです。 Appleは、ユーザーがiCloudと同期している写真のみをスキャンしていると言っていますが、ユーザーがiCloudサービスを使用しているときはいつでも、間もなくユーザーのデバイスのスキャンを開始するという事実は変わりません。

Appleはこれらの懸念に反撃しています

テーブルの上のiphone
画像:スプラッシュを解除

新しいポリシーに対する懸念が高まっているにもかかわらず、Appleはその銃に固執し、ポリシーが実装された後もユーザーのプライバシーが損なわれないように努めています。 同社は、変更に対する人々の懸念を取り巻くよくある質問のドキュメントをリリースしました。

このドキュメントでは、Appleは、メッセージのエンドツーエンド暗号化がこれらの変更の影響を受けないこと、および「メッセージのこの機能の結果として通信にアクセスできない」ことをユーザーに保証しています。 さらに、FAQドキュメントはiCloud Photosスキャンで拡張され、スキャンはローカルで実行されますが、iCloudと共有されている画像のみがスキャンされていることを繰り返し述べています。 共有が完了した後ではなく、なぜこのスキャンがローカルで行われるのかはまだ疑問です。

同社はまた、これらの新しいポリシーが、デバイスのコンテンツを深く掘り下げてAppleユーザーの権利を侵害しようとしている国々によって使用される可能性があるという懸念にも対処しました。 Appleは、この種の要求を拒否することを確認し、次のように述べています。

「これまで、ユーザーのプライバシーを低下させる政府の義務付けられた変更を構築して展開するという要求に直面しており、それらの要求を断固として拒否してきました。 今後も断ります。 はっきりさせておきますが、このテクノロジーはiCloudに保存されているCSAMの検出に限定されており、政府からの拡張要求には応じません。」

これまでに出てきた懸念にかかわらず、Appleはこれらの新機能を撤回していません。 これらの3つの児童保護アップデートはすべて、iOS 15、iPadOS 15、watchOS 8、およびmacOSMontereyのアップデートで今年後半に提供される予定です。

私がこれまで見てきたことから、これらの変更はかなり良いようです。 CSAMは絶対に嫌なものであり、Appleがユーザーのセキュリティを損なうことなく、プラットフォームからCSAMを可能な限り排除しようと積極的に取り組んでいるのを見るのは良いことです。 プライバシーを保護するために会社が取った措置は十分であるように思われますが、それらが実施された後もそれが当てはまるかどうかを待つ必要があります。

これについて何か考えがありますか? コメントで下に知らせてください、または私たちのツイッターまたはフェイスブックに議論を持ち越してください。

編集者の推奨事項:

  • WhatsAppのCEOは、Appleの新しい物議を醸す写真スキャン機能のファンではありません。
  • 男がトイレに落ちた後、AppleWatchは別の命を救った
  • iPhone 13について私たちが知っていることすべて:リーク、噂、リリース日など
  • Appleは、iPhoneとiCloudの写真の児童虐待画像のスキャンを開始することを確認しました