Le nuove controverse funzionalità di protezione dei bambini di Apple sono davvero sicure?

Pubblicato: 2021-08-17

Un paio di settimane fa, Apple ha annunciato i suoi piani per iniziare a scansionare i telefoni degli utenti nel tentativo di combattere il materiale pedopornografico (CSAM). Mentre molte persone hanno elogiato la nuova politica, ci sono alcuni che credono che le nuove politiche potrebbero aprire una "backdoor" che potrebbe potenzialmente minacciare la privacy degli utenti.

Apple è un'azienda che ha sempre tenuto in grande considerazione la privacy dei suoi utenti. I suoi recenti aggiornamenti della politica sulla privacy sono stati elogiati dai sostenitori della privacy di tutto il mondo (mentre arruffano contemporaneamente le piume di Mark Zuckerberg su Facebook).

Ma questa nuova politica ha alcune persone che si chiedono se gli sforzi di Apple per combattere lo sfruttamento sessuale dei bambini siano sicuri o meno. Per svolgere questa conversazione, diamo un'occhiata a cosa faranno esattamente le nuove politiche.

Le nuove politiche di protezione dei bambini di Apple

Le nuove politiche annunciate all'inizio di questo mese sono suddivise in tre categorie di base. Il primo è relativamente semplice e non controverso. Apple ora indirizzerà gli argomenti di ricerca relativi a CSAM alle risorse per la segnalazione alle forze dell'ordine o per ottenere altri tipi di aiuto.

La controversia sta nelle prossime due caratteristiche. Innanzitutto, Apple aggiungerà un controllo genitori che esegue la scansione dei messaggi per CSAM. Può bloccare questo contenuto per gli utenti di età inferiore ai 18 anni e persino segnalarlo ai genitori di utenti di età inferiore ai 13 anni.

L'ultimo aggiornamento riguarda le foto di iCloud. Apple ha affermato che inizierà anche a scansionare le foto che gli utenti sincronizzeranno con iCloud per CSAM. Se l'azienda trova abbastanza corrispondenze CSAM da un utente, invierà quelle foto a un moderatore Apple che potrà quindi avvisare il National Center for Missing and Exploited Children (NCMEC).

Apple si è assicurata di mantenere la privacy degli utenti una priorità assoluta durante la progettazione di queste funzionalità, ma ci sono alcuni che non sono d'accordo. Allora perché le persone sono interessate a queste nuove funzionalità?

Perché alcune persone sono preoccupate per le nuove funzionalità di Apple?

ios apple iphone che mostra app e connessione wifi
Immagine: Unsplash

La funzionalità che sembra essere la più controversa finora è la scansione delle foto di iCloud degli utenti, ma ci arriveremo tra un minuto. Per prima cosa, diamo un'occhiata alla nuova funzione Messaggi. Con questa nuova funzionalità, Apple offre ai genitori un maggiore controllo, avvisandoli se un utente di età inferiore ai 13 anni ha ricevuto (e visualizzato) immagini contenenti CSAM.

L'unica vera preoccupazione che è derivata da questa funzione è che offre ai genitori una maggiore capacità di curiosare sui propri figli. Alcune persone credono che questo potrebbe potenzialmente danneggiare i bambini, facendo uscire i bambini queer e transgender ai loro genitori ficcanaso.

La maggior parte delle preoccupazioni relative a queste nuove politiche riguarda la nuova funzione di scansione delle foto di Apple. Per gli utenti iOS o iPadOS con sede negli Stati Uniti, Apple inizierà presto a scansionare le tue foto ogni volta che le sincronizzerai con iCloud. Apple non è l'unica azienda che scansiona le foto degli utenti per CSAM. Molte piattaforme eseguono la scansione per CSAM, ma la differenza è dove avviene la scansione.

Come funziona la nuova scansione CSAM dell'azienda?

La maggior parte delle piattaforme esegue la scansione del contenuto che viene caricato sui propri server. Nel caso di Apple, la scansione avverrà effettivamente localmente, sul tuo dispositivo. Lo so, è un po' confuso, quindi lasciatemi chiarire. Ogni volta che sincronizzi le tue foto con Foto di iCloud, Apple eseguirà la scansione del tuo dispositivo alla ricerca di foto con CSAM. I moderatori Apple vengono quindi avvisati quando vengono rilevate diverse corrispondenze CSAM sul dispositivo e hanno la possibilità di avvisare le autorità competenti presso l'NCMEC.

Le preoccupazioni con queste nuove politiche risiedono principalmente nel fatto che Apple ora eseguirà la scansione del telefono in locale, invece di scansionare i suoi server cloud, per cercare di trovare CSAM. Un critico della nuova politica, Ben Thompson, ha scritto questo a Stratechery :

“Invece di aggiungere la scansione CSAM a iCloud Photos nel cloud che possiede e gestisce, Apple sta compromettendo il telefono che tu e io possediamo e gestiamo, senza che nessuno di noi abbia voce in capitolo. Sì, puoi disattivare le foto di iCloud per disabilitare la scansione di Apple, ma questa è una decisione politica; la capacità di raggiungere il telefono di un utente ora esiste e non c'è nulla che un utente iPhone possa fare per sbarazzarsene".

Il problema è che Apple ha ora stabilito un precedente che le consente di esaminare i dati degli utenti sui loro telefoni anziché sui server dell'azienda. Anche se Apple afferma che sta scansionando solo le foto che gli utenti stanno sincronizzando con iCloud, resta il fatto che l'azienda inizierà presto a scansionare i dispositivi degli utenti ogni volta che utilizzano il servizio iCloud.

Apple sta combattendo contro queste preoccupazioni

iphone sul tavolo
Immagine: Unsplash

Nonostante le crescenti preoccupazioni per le sue nuove politiche, Apple si attiene alle sue armi e cerca di garantire agli utenti che la loro privacy rimanga intatta dopo che le politiche sono state implementate. La società ha pubblicato un documento sulle domande frequenti sulle preoccupazioni delle persone riguardo ai cambiamenti.

Nel documento, Apple garantisce agli utenti che la crittografia end-to-end di Messaggi non sarà influenzata da queste modifiche e che "non avrà mai accesso alle comunicazioni come risultato di questa funzione in Messaggi". Inoltre, il documento delle domande frequenti ha ampliato la scansione delle foto di iCloud, ribadendo che, sebbene le scansioni vengano eseguite localmente, vengono scansionate solo le immagini condivise con iCloud. Il motivo per cui questa scansione avvenga localmente invece che dopo che la condivisione è stata completata è ancora in discussione.

La società ha anche affrontato le preoccupazioni che queste nuove politiche potrebbero essere utilizzate da paesi che cercano di violare i diritti degli utenti Apple immergendosi più a fondo nel contenuto del dispositivo. Apple ha confermato che avrebbe rifiutato qualsiasi richiesta di questo tipo, dicendo questo:

“Abbiamo già affrontato richieste per creare e implementare modifiche imposte dal governo che degradano la privacy degli utenti e abbiamo fermamente rifiutato tali richieste. Continueremo a rifiutarli in futuro. Cerchiamo di essere chiari, questa tecnologia si limita a rilevare CSAM archiviato in iCloud e non acconsentiremo a nessuna richiesta del governo di espanderla".

Indipendentemente dalle preoccupazioni emerse finora, Apple non ha ritirato queste nuove funzionalità. Tutti e tre questi aggiornamenti per la protezione dei bambini arriveranno entro la fine dell'anno negli aggiornamenti di iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.

Da quello che ho visto finora, questi cambiamenti sembrano abbastanza buoni. CSAM è assolutamente disgustoso ed è bello vedere che Apple è proattiva nel cercare di eliminarlo il più possibile dalle sue piattaforme, senza danneggiare la sicurezza degli utenti. Sembra che i passi che l'azienda ha intrapreso per proteggere la privacy siano sufficienti, ma dovremo aspettare e vedere se rimarrà così dopo che saranno implementati.

Hai qualche idea su questo? Fatecelo sapere in basso nei commenti o trasferite la discussione sul nostro Twitter o Facebook.

Raccomandazioni della redazione:

  • Il CEO di WhatsApp non è sicuramente un fan della nuova controversa funzionalità di scansione delle foto di Apple
  • L'Apple Watch ha salvato un'altra vita dopo che un uomo è caduto in un bagno
  • Tutto ciò che sappiamo sull'iPhone 13: perdite, voci, data di rilascio e altro ancora
  • Apple ha appena confermato che inizierà a scansionare le foto di iPhone e iCloud alla ricerca di immagini di abusi sui minori