Les nouvelles fonctionnalités controversées de protection des enfants d'Apple sont-elles réellement sécurisées ?

Publié: 2021-08-17

Il y a quelques semaines, Apple a annoncé son intention de commencer à scanner les téléphones des utilisateurs dans le but de lutter contre le matériel d'abus sexuel d'enfants (CSAM). Alors que de nombreuses personnes ont fait l'éloge de la nouvelle politique, certains pensent que les nouvelles politiques pourraient ouvrir une "porte dérobée" qui pourrait potentiellement menacer la vie privée des utilisateurs.

Apple est une entreprise qui a toujours tenu la vie privée de ses utilisateurs en très haute estime. Ses récentes mises à jour de la politique de confidentialité ont été saluées par les défenseurs de la vie privée du monde entier (tout en ébouriffant simultanément les plumes de Mark Zuckerberg sur Facebook).

Mais cette nouvelle politique amène certaines personnes à se demander si les efforts d'Apple pour lutter contre l'exploitation sexuelle des enfants sont sûrs ou non. Pour développer cette conversation, examinons exactement ce que les nouvelles politiques feront.

Les nouvelles politiques de protection de l'enfance d'Apple

Les nouvelles politiques annoncées plus tôt ce mois-ci se résument en trois catégories de base. La première est relativement simple et non controversée. Apple dirigera désormais les sujets de recherche liés au CSAM vers des ressources permettant de signaler aux forces de l'ordre ou d'obtenir d'autres types d'aide.

La controverse réside dans les deux fonctionnalités suivantes. Tout d'abord, Apple ajoutera un contrôle parental qui analyse les messages pour CSAM. Il peut bloquer ce contenu pour les utilisateurs de moins de 18 ans, et même le signaler aux parents d'utilisateurs de moins de 13 ans.

La dernière mise à jour concerne iCloud Photos. Apple a déclaré qu'il commencerait également à numériser les photos que les utilisateurs synchronisent avec iCloud pour CSAM. Si l'entreprise trouve suffisamment de correspondances CSAM d'un utilisateur, elle enverra ensuite ces photos à un modérateur Apple qui pourra alors en informer le National Center for Missing and Exploited Children (NCMEC).

Apple s'est assuré qu'il accordait une grande priorité à la confidentialité des utilisateurs lors de la conception de ces fonctionnalités, mais certains ne sont pas d'accord. Alors pourquoi les gens sont-ils préoccupés par ces nouvelles fonctionnalités ?

Pourquoi certaines personnes sont-elles préoccupées par les nouvelles fonctionnalités d'Apple ?

ios apple iphone montrant des applications et une connexion wifi
Image : Unsplash

La fonctionnalité qui semble être la plus controversée jusqu'à présent est la numérisation des photos iCloud des utilisateurs, mais nous y reviendrons dans une minute. Voyons d'abord la nouvelle fonctionnalité Messages. Avec cette nouvelle fonctionnalité, Apple donne plus de contrôle aux parents, en les avertissant si un utilisateur de moins de 13 ans a reçu (et visualisé) des images contenant du CSAM.

La seule véritable préoccupation qui découle de cette fonctionnalité est qu'elle donne aux parents plus de possibilité d'espionner leurs enfants. Certaines personnes pensent que cela pourrait potentiellement nuire aux enfants, en révélant les enfants homosexuels et transgenres à leurs parents curieux.

La plupart des préoccupations concernant ces nouvelles politiques concernent la nouvelle fonctionnalité de numérisation de photos d'Apple. Pour les utilisateurs iOS ou iPadOS basés aux États-Unis, Apple commencera bientôt à numériser vos photos chaque fois que vous les synchroniserez avec iCloud. Apple n'est pas la seule entreprise à scanner les photos des utilisateurs pour CSAM. De nombreuses plates-formes recherchent CSAM, mais la différence réside dans l'endroit où l'analyse a lieu.

Comment fonctionne la nouvelle analyse CSAM de l'entreprise ?

La plupart des plates-formes analysent le contenu téléchargé sur leurs serveurs. Dans le cas d'Apple, l'analyse se fera en fait localement, sur votre appareil. Je sais, c'est un peu déroutant, alors laissez-moi clarifier. Chaque fois que vous synchronisez vos photos avec iCloud Photos, Apple analyse votre appareil à la recherche de photos avec CSAM. Les modérateurs Apple sont alors alertés lorsque plusieurs correspondances CSAM sont trouvées sur votre appareil, et ils ont la possibilité d'alerter les autorités compétentes du NCMEC.

Les préoccupations concernant ces nouvelles politiques résident principalement dans le fait qu'Apple analysera désormais votre téléphone localement, au lieu d'analyser ses serveurs cloud, pour essayer de trouver CSAM. Un critique de la nouvelle politique, Ben Thompson, a écrit ceci à Stratechery :

"Au lieu d'ajouter la numérisation CSAM à iCloud Photos dans le cloud qu'ils possèdent et exploitent, Apple compromet le téléphone que vous et moi possédons et exploitons, sans qu'aucun de nous n'ait son mot à dire à ce sujet. Oui, vous pouvez désactiver iCloud Photos pour désactiver la numérisation d'Apple, mais il s'agit d'une décision politique. la capacité d'accéder au téléphone d'un utilisateur existe maintenant, et il n'y a rien qu'un utilisateur d'iPhone puisse faire pour s'en débarrasser.

Le problème est qu'Apple a maintenant créé un précédent qui lui permet de consulter les données des utilisateurs sur leurs téléphones plutôt que sur les serveurs de l'entreprise. Même si Apple affirme ne scanner que les photos que les utilisateurs synchronisent avec iCloud, il n'en reste pas moins que la société commencera bientôt à scanner les appareils des utilisateurs chaque fois qu'ils utilisent le service iCloud.

Apple riposte à ces préoccupations

iphone sur table
Image : Unsplash

Malgré les inquiétudes croissantes suscitées par ses nouvelles politiques, Apple s'en tient à ses armes et essaie de garantir aux utilisateurs que leur vie privée restera intacte après la mise en œuvre des politiques. La société a publié un document de questions fréquemment posées concernant les préoccupations des gens concernant les changements.

Dans le document, Apple garantit aux utilisateurs que le chiffrement de bout en bout de Messages ne sera pas affecté par ces modifications et qu'il "n'a jamais accès aux communications grâce à cette fonctionnalité dans Messages". De plus, le document FAQ s'est étendu sur l'analyse des photos iCloud, réitérant que, bien que les analyses soient effectuées localement, seules les images partagées avec iCloud sont analysées. La raison pour laquelle cette analyse se produit localement au lieu d'une fois le partage terminé est toujours en question.

La société a également répondu aux préoccupations selon lesquelles ces nouvelles politiques pourraient être utilisées par des pays cherchant à enfreindre les droits des utilisateurs d'Apple en approfondissant le contenu de votre appareil. Apple a confirmé qu'il refuserait toute demande de cette nature en disant ceci :

«Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la vie privée des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l'avenir. Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n'accéderons à aucune demande gouvernementale de l'étendre.

Indépendamment des préoccupations qui ont été exprimées jusqu'à présent, Apple n'a pas abandonné ces nouvelles fonctionnalités. Ces trois mises à jour de protection des enfants seront disponibles plus tard cette année dans les mises à jour d'iOS 15, iPadOS 15, watchOS 8 et macOS Monterey.

D'après ce que j'ai vu jusqu'à présent, ces changements semblent plutôt bons. Le CSAM est absolument dégoûtant, et il est bon de voir qu'Apple est proactif en essayant de l'éliminer autant que possible de ses plates-formes, sans nuire à la sécurité des utilisateurs. Il semble que les mesures prises par l'entreprise pour protéger la vie privée soient suffisantes, mais nous devrons attendre et voir si cela reste le cas après leur mise en œuvre.

Avez-vous des idées à ce sujet? Faites-le nous savoir ci-dessous dans les commentaires ou transférez la discussion sur notre Twitter ou Facebook.

Recommandations des éditeurs :

  • Le PDG de WhatsApp n'est certainement pas fan de la nouvelle fonctionnalité controversée de numérisation de photos d'Apple
  • L'Apple Watch a sauvé une autre vie après la chute d'un homme dans une salle de bain
  • Tout ce que nous savons sur l'iPhone 13 : fuites, rumeurs, date de sortie, etc.
  • Apple vient de confirmer qu'il commencera à scanner les photos iPhone et iCloud pour les images d'abus d'enfants