Sunt sigure noile funcții controversate ale Apple de protecție a copiilor?

Publicat: 2021-08-17

În urmă cu câteva săptămâni, Apple și-a anunțat planurile de a începe scanarea telefoanelor utilizatorilor în efortul de a combate materialele de abuz sexual asupra copiilor (CSAM). În timp ce mulți oameni au lăudat noua politică, există unii care cred că noile politici ar putea deschide o „ușă din spate” care ar putea amenința confidențialitatea utilizatorilor.

Apple este o companie care a respectat întotdeauna confidențialitatea utilizatorilor săi. Actualizările recente ale politicii sale de confidențialitate au fost lăudate de susținătorii confidențialității de pretutindeni (în timp ce simultan i-au răvășit penele lui Mark Zuckerberg la Facebook).

Dar această nouă politică îi pune pe unii oameni să se întrebe dacă eforturile Apple de a combate exploatarea sexuală a copiilor sunt sau nu sigure. Pentru a desfășura această conversație, să aruncăm o privire la exact ce vor face noile politici.

Noile politici Apple de protecție a copilului

Noile politici anunțate la începutul acestei luni sunt împărțite în trei categorii de bază. Primul este relativ simplu și necontroversat. Apple va direcționa acum subiectele de căutare legate de CSAM către resurse pentru raportarea forțelor de ordine sau pentru a obține alte tipuri de ajutor.

Controversa constă în următoarele două caracteristici. În primul rând, Apple va adăuga un control parental care scanează Mesaje pentru CSAM. Poate bloca acest conținut pentru utilizatorii cu vârsta sub 18 ani și chiar îl poate raporta părinților utilizatorilor sub 13 ani.

Ultima actualizare implică iCloud Photos. Apple a spus că va începe, de asemenea, să scaneze fotografiile pe care utilizatorii le sincronizează cu iCloud pentru CSAM. Dacă compania găsește suficiente potriviri CSAM de la un utilizator, va trimite acele fotografii unui moderator Apple care poate notifica Centrul Național pentru Copii Dispăruți și Exploați (NCMEC).

Apple s-a asigurat că a păstrat confidențialitatea utilizatorilor o prioritate ridicată atunci când proiectează aceste funcții, dar există unii care nu sunt de acord. Deci, de ce sunt oamenii preocupați de aceste noi funcții?

De ce sunt unii oameni preocupați de noile caracteristici ale Apple?

ios apple iphone care afișează aplicații și conexiune wifi
Imagine: Unsplash

Funcția care pare a fi cea mai controversată de până acum este scanarea fotografiilor iCloud ale utilizatorilor, dar vom ajunge la asta în doar un minut. Mai întâi, să aruncăm o privire la noua funcție Mesaje. Cu această nouă caracteristică, Apple oferă părinților mai mult control, notificându-i dacă un utilizator sub 13 ani a primit (și a văzut) imagini care conțin CSAM.

Singura preocupare reală care a venit din această caracteristică este că le oferă părinților mai multe capacități de a-și căuta copiii. Unii oameni cred că acest lucru ar putea răni copiii, dacă i-ar prezenta pe copii queer și transgender la părinții lor năzuiți.

Cea mai mare parte a preocupărilor cu privire la aceste noi politici implică noua funcție de scanare a fotografiilor Apple. Pentru utilizatorii iOS sau iPadOS din SUA, Apple va începe în curând să vă scaneze fotografiile ori de câte ori le sincronizați cu iCloud. Apple nu este singura companie care scanează fotografiile utilizatorilor pentru CSAM. Multe platforme scanează pentru CSAM, dar diferența este locul în care are loc scanarea.

Cum funcționează noua scanare CSAM a companiei?

Majoritatea platformelor scanează conținutul care este încărcat pe serverele lor. În cazul Apple, scanarea se va întâmpla de fapt local, pe dispozitivul dvs. Știu, este puțin confuz, așa că permiteți-mi să clarific. Ori de câte ori vă sincronizați fotografiile cu iCloud Photos, Apple vă va scana dispozitivul pentru fotografii cu CSAM. Moderatorii Apple sunt apoi alertați atunci când sunt găsite mai multe potriviri CSAM pe dispozitivul dvs. și au capacitatea de a alerta autoritățile competente de la NCMEC.

Preocupările legate de aceste noi politici rezidă în principal în faptul că Apple va scana acum telefonul local, în loc să-și scaneze serverele cloud, pentru a încerca să găsească CSAM. Un critic al noii politici, Ben Thompson, a scris asta la Stratechery :

„În loc să adauge scanarea CSAM la iCloud Photos în cloud-ul pe care îl dețin și îl operează, Apple compromite telefonul pe care tu și cu mine îl deținem și îl exploatăm, fără ca niciunul dintre noi să aibă un cuvânt de spus în această problemă. Da, puteți dezactiva iCloud Photos pentru a dezactiva scanarea Apple, dar aceasta este o decizie politică; capacitatea de a ajunge la telefonul unui utilizator există acum și nu poate face nimic un utilizator de iPhone pentru a scăpa de el.”

Problema este că Apple a creat acum un precedent care îi permite să analizeze datele utilizatorilor de pe telefoanele lor și nu de pe serverele companiei. Chiar dacă Apple spune că scanează doar fotografiile pe care utilizatorii le sincronizează cu iCloud, rămâne faptul că compania va începe în curând să scaneze dispozitivele utilizatorilor ori de câte ori aceștia folosesc serviciul iCloud.

Apple luptă împotriva acestor preocupări

iPhone pe masă
Imagine: Unsplash

În ciuda preocupărilor tot mai mari cu privire la noile sale politici, Apple își menține armele și încearcă să asigure utilizatorilor că confidențialitatea lor va rămâne intactă după ce politicile au fost implementate. Compania a lansat un document cu întrebări frecvente despre preocupările oamenilor cu privire la schimbări.

În document, Apple asigură utilizatorilor că criptarea mesajelor de la capăt la capăt nu va fi afectată de aceste modificări și că „nu obține niciodată acces la comunicații ca urmare a acestei funcții din Messages”. În plus, documentul Întrebări frecvente s-a extins la scanarea fotografiilor iCloud, reiterând că, deși scanările sunt efectuate local, sunt scanate doar imaginile care sunt partajate cu iCloud. De ce această scanare are loc local și nu după ce partajarea a fost finalizată este încă în discuție.

Compania și-a exprimat, de asemenea, îngrijorarea că aceste noi politici ar putea fi utilizate de țările care doresc să încalce drepturile utilizatorilor Apple, scufundându-se mai adânc în conținutul dispozitivului dvs. Apple a confirmat că vor refuza orice cerere de această natură, spunând următoarele:

„Ne-am confruntat înainte cu solicitări de a construi și implementa modificări impuse de guvern care degradează confidențialitatea utilizatorilor și am refuzat cu fermitate aceste cereri. Vom continua să le refuzăm pe viitor. Să fim clari, această tehnologie se limitează la detectarea CSAM stocate în iCloud și nu vom accepta cererea niciunui guvern de a o extinde.”

Indiferent de orice îngrijorări apărute până acum, Apple nu a retras aceste noi funcții. Toate aceste trei actualizări pentru protecția copiilor vor veni cu sfârșitul acestui an în actualizări pentru iOS 15, iPadOS 15, watchOS 8 și macOS Monterey.

Din câte am văzut până acum, aceste schimbări par destul de bune. CSAM este absolut dezgustător și este bine de văzut că Apple este proactiv în încercarea de a-l elimina pe cât posibil de pe platformele sale, fără a afecta securitatea utilizatorilor. Se pare că pașii pe care i-a luat compania pentru a proteja confidențialitatea sunt suficienți, dar va trebui să așteptăm și să vedem dacă așa rămâne după ce vor fi implementați.

Ai vreo părere despre asta? Anunțați-ne mai jos în comentarii sau transmiteți discuția pe Twitter sau Facebook.

Recomandările editorilor:

  • CEO-ul WhatsApp nu este cu siguranță un fan al noii funcții controversate de scanare a fotografiilor Apple
  • Apple Watch a salvat o altă viață după ce un bărbat a căzut într-o baie
  • Tot ce știm despre iPhone 13: scurgeri, zvonuri, data lansării și multe altele
  • Apple tocmai a confirmat că va începe să scaneze fotografiile iPhone și iCloud pentru imagini de abuz asupra copiilor