هل ميزات حماية الطفل الجديدة المثيرة للجدل من Apple آمنة بالفعل؟

نشرت: 2021-08-17

قبل أسبوعين ، أعلنت شركة Apple عن خططها لبدء فحص هواتف المستخدمين في محاولة لمكافحة مواد الاعتداء الجنسي على الأطفال (CSAM). بينما كان الكثير من الناس يمتدحون السياسة الجديدة ، هناك من يعتقد أن السياسات الجديدة يمكن أن تفتح "بابًا خلفيًا" قد يهدد خصوصية المستخدم.

Apple هي شركة تحافظ دائمًا على خصوصية مستخدميها في الاعتبار الشديد. تم الإشادة بالتحديثات الأخيرة لسياسة الخصوصية من قبل المدافعين عن الخصوصية في كل مكان (بينما يزعجهم في الوقت نفسه ريش مارك زوكربيرج في Facebook).

لكن هذه السياسة الجديدة جعلت بعض الناس يتساءلون عما إذا كانت جهود Apple لمكافحة الاستغلال الجنسي للأطفال آمنة أم لا. لفتح هذه المحادثة ، دعنا نلقي نظرة على ما ستفعله السياسات الجديدة بالضبط.

سياسات حماية الطفل الجديدة من Apple

السياسات الجديدة التي تم الإعلان عنها في وقت سابق من هذا الشهر مقسمة إلى ثلاث فئات أساسية. الأول مباشر نسبيًا وغير مثير للجدل. ستقوم Apple الآن بتوجيه موضوعات البحث المتعلقة بـ CSAM إلى موارد لإبلاغ سلطات تطبيق القانون أو الحصول على أنواع أخرى من المساعدة.

الجدل يكمن في الميزتين المقبلتين. أولاً ، ستضيف Apple رقابة أبوية تفحص الرسائل بحثًا عن CSAM. يمكنه حظر هذا المحتوى للمستخدمين الذين تقل أعمارهم عن 18 عامًا ، وحتى إبلاغ آباء المستخدمين الذين تقل أعمارهم عن 13 عامًا.

التحديث الأخير يتضمن صور iCloud. قالت شركة Apple إنها ستبدأ أيضًا في مسح الصور التي يقوم المستخدمون بمزامنتها مع iCloud لـ CSAM. إذا وجدت الشركة ما يكفي من مطابقات CSAM من مستخدم ، فسوف ترسل تلك الصور إلى مشرف Apple الذي يمكنه بعد ذلك إخطار المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).

لقد ضمنت Apple أنها أبقت خصوصية المستخدم على رأس أولوياتها عند تصميم هذه الميزات ، ولكن هناك البعض ممن لا يوافقون عليها. فلماذا يهتم الناس بهذه الميزات الجديدة؟

لماذا يهتم بعض الأشخاص بميزات Apple الجديدة؟

ios apple iphone يعرض التطبيقات واتصال wifi
الصورة: Unsplash

الميزة التي تبدو الأكثر إثارة للجدل حتى الآن هي فحص صور iCloud للمستخدمين ، لكننا سنصل إلى ذلك في دقيقة واحدة فقط. أولاً ، دعنا نلقي نظرة على ميزة الرسائل الجديدة. مع هذه الميزة الجديدة ، تمنح Apple الآباء مزيدًا من التحكم ، من خلال إخطارهم إذا تلقى مستخدم أقل من 13 عامًا (وعرض) صورًا تحتوي على CSAM.

القلق الحقيقي الوحيد الذي نشأ عن هذه الميزة هو أنها تمنح الآباء مزيدًا من القدرة على التطفل على أطفالهم. يعتقد بعض الناس أن هذا قد يؤذي الأطفال ، من خلال نزهة الأطفال المثليين والمتحولين جنسياً إلى آبائهم الفضوليين.

تتضمن معظم المخاوف المتعلقة بهذه السياسات الجديدة ميزة مسح الصور الجديدة من Apple. بالنسبة لمستخدمي iOS أو iPadOS المقيمين في الولايات المتحدة ، ستبدأ Apple قريبًا في فحص صورك كلما قمت بمزامنتها مع iCloud. Apple ليست الشركة الوحيدة التي تقوم بمسح صور المستخدم بحثًا عن CSAM. تقوم العديد من الأنظمة الأساسية بالبحث عن CSAM ، ولكن الاختلاف هو مكان إجراء المسح.

كيف يعمل فحص CSAM الجديد للشركة؟

تقوم معظم الأنظمة الأساسية بفحص المحتوى الذي يتم تحميله على خوادمهم. في حالة Apple ، سيحدث الفحص محليًا على جهازك. أعلم أن الأمر محير بعض الشيء ، لذا دعني أوضح. عندما تقوم بمزامنة صورك مع iCloud Photos ، ستقوم Apple بفحص جهازك بحثًا عن الصور باستخدام CSAM. يتم تنبيه وسطاء Apple بعد ذلك عند العثور على العديد من مطابقات CSAM على جهازك ، ولديهم القدرة على تنبيه السلطات المختصة في NCMEC.

تكمن المخاوف بشأن هذه السياسات الجديدة بشكل أساسي في حقيقة أن Apple ستقوم الآن بفحص هاتفك محليًا ، بدلاً من فحص خوادمها السحابية لمحاولة العثور على CSAM. كتب أحد منتقدي السياسة الجديدة ، بن طومسون ، هذا في ستراتشيري :

"بدلاً من إضافة مسح CSAM إلى iCloud Photos في السحابة التي يمتلكونها ويقومون بتشغيلها ، تعرض Apple الهاتف الذي نملكه ونديره ، دون أن يكون لأي منا رأي في الأمر. نعم ، يمكنك إيقاف تشغيل iCloud Photos لتعطيل فحص Apple ، ولكن هذا قرار سياسي ؛ القدرة على الوصول إلى هاتف المستخدم موجودة الآن ، ولا يوجد شيء يمكن لمستخدم iPhone فعله للتخلص منه ".

تكمن المشكلة في أن Apple قد حددت الآن سابقة تتيح لها الاطلاع على بيانات المستخدم على هواتفهم بدلاً من خوادم الشركة. على الرغم من أن شركة Apple تقول إنها تقوم فقط بمسح الصور التي يقوم المستخدمون بمزامنتها مع iCloud ، إلا أن الحقيقة تظل أن الشركة ستبدأ قريبًا في فحص أجهزة المستخدمين عندما يستخدمون خدمة iCloud.

أبل تقاوم هذه المخاوف

اي فون على الطاولة
الصورة: Unsplash

على الرغم من المخاوف المتزايدة بشأن سياساتها الجديدة ، تلتزم Apple بأسلحتها وتحاول ضمان بقاء خصوصيتهم سليمة بعد تنفيذ السياسات. أصدرت الشركة وثيقة الأسئلة المتداولة حول مخاوف الناس بشأن التغييرات.

في هذا المستند ، تضمن Apple للمستخدمين أن تشفير الرسائل من طرف إلى طرف لن يتأثر بهذه التغييرات ، وأنه "لن يتمكن أبدًا من الوصول إلى الاتصالات نتيجة لهذه الميزة في الرسائل". بالإضافة إلى ذلك ، تم توسيع مستند الأسئلة الشائعة في مسح صور iCloud ، مما يؤكد أنه على الرغم من إجراء عمليات المسح محليًا ، يتم فقط مسح الصور التي تتم مشاركتها مع iCloud. لا يزال سبب حدوث هذا الفحص محليًا بدلاً من إتمام المشاركة موضع تساؤل.

عالجت الشركة أيضًا المخاوف من أن هذه السياسات الجديدة يمكن أن تستخدمها البلدان التي تتطلع إلى انتهاك حقوق مستخدمي Apple من خلال التعمق في محتوى جهازك. وأكدت شركة آبل أنها سترفض أي طلب من هذا النوع قائلة:

"لقد واجهنا مطالب لبناء ونشر التغييرات التي فرضتها الحكومة والتي تقوض خصوصية المستخدمين من قبل ، ورفضنا هذه المطالب بثبات. سوف نستمر في رفضهم في المستقبل. لنكن واضحين ، تقتصر هذه التقنية على اكتشاف CSAM المخزنة في iCloud ولن نوافق على أي طلب حكومي لتوسيعه ".

بغض النظر عن أي مخاوف ظهرت حتى الآن ، لم تتراجع Apple عن هذه الميزات الجديدة. ستأتي جميع تحديثات حماية الطفل الثلاثة هذه في وقت لاحق من هذا العام في تحديثات iOS 15 و iPadOS 15 و watchOS 8 و macOS Monterey.

مما رأيته حتى الآن ، تبدو هذه التغييرات جيدة جدًا. إن CSAM أمر مثير للاشمئزاز تمامًا ، ومن الجيد أن ترى أن Apple تعمل بشكل استباقي في محاولة إزالتها من منصاتها قدر الإمكان ، دون الإضرار بأمن المستخدم. يبدو أن الخطوات التي اتخذتها الشركة لحماية الخصوصية كافية ، لكن سيتعين علينا الانتظار ومعرفة ما إذا كان هذا هو الحال بعد تنفيذها.

هل لديك أي أفكار حول هذا؟ أخبرنا أدناه في التعليقات أو انقل المناقشة إلى Twitter أو Facebook.

توصيات المحررين:

  • الرئيس التنفيذي لشركة WhatsApp ليس بالتأكيد معجبًا بميزة مسح الصور الجديدة المثيرة للجدل من Apple
  • أنقذت Apple Watch حياة أخرى بعد سقوط رجل في الحمام
  • كل ما نعرفه عن iPhone 13: التسريبات والشائعات وتاريخ الإصدار والمزيد
  • أكدت Apple للتو أنها ستبدأ في مسح صور iPhone و iCloud بحثًا عن صور إساءة معاملة الأطفال