Os novos recursos controversos de proteção infantil da Apple são realmente seguros?

Publicados: 2021-08-17

Algumas semanas atrás, a Apple anunciou seus planos de começar a escanear os telefones dos usuários em um esforço para combater o material de abuso sexual infantil (CSAM). Embora muitas pessoas tenham elogiado a nova política, há quem acredite que as novas políticas podem abrir uma “porta dos fundos” que poderia ameaçar a privacidade do usuário.

A Apple é uma empresa que sempre considerou a privacidade de seus usuários muito alta. Suas recentes atualizações de política de privacidade foram elogiadas por defensores da privacidade em todos os lugares (ao mesmo tempo em que irritam Mark Zuckerberg no Facebook).

Mas essa nova política faz com que algumas pessoas questionem se os esforços da Apple para combater a exploração sexual infantil são seguros. Para desdobrar essa conversa, vamos dar uma olhada exatamente no que as novas políticas farão.

As novas políticas de proteção infantil da Apple

As novas políticas anunciadas no início deste mês são resumidas em três categorias básicas. O primeiro é relativamente simples e não controverso. A Apple agora direcionará os tópicos de pesquisa relacionados ao CSAM para recursos para relatar às autoridades ou obter outros tipos de ajuda.

A controvérsia está nos próximos dois recursos. Primeiro, a Apple adicionará um controle parental que verifica as mensagens em busca de CSAM. Ele pode bloquear esse conteúdo para usuários menores de 18 anos e até denunciá-lo aos pais de usuários menores de 13 anos.

A última atualização envolve o iCloud Photos. A Apple disse que também começará a digitalizar fotos que os usuários sincronizam com o iCloud para CSAM. Se a empresa encontrar correspondências CSAM suficientes de um usuário, enviará essas fotos para um moderador da Apple, que poderá notificar o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).

A Apple garantiu que manteve a privacidade do usuário como alta prioridade ao projetar esses recursos, mas há alguns que não concordam. Então, por que as pessoas estão preocupadas com esses novos recursos?

Por que algumas pessoas estão preocupadas com os novos recursos da Apple?

ios apple iphone mostrando aplicativos e conexão wifi
Imagem: Unsplash

O recurso que parece ser o mais controverso até agora é a verificação das fotos do iCloud dos usuários, mas chegaremos a isso em apenas um minuto. Primeiro, vamos dar uma olhada no novo recurso Mensagens. Com este novo recurso, a Apple dá aos pais mais controle, notificando-os se um usuário menor de 13 anos recebeu (e visualizou) imagens contendo CSAM.

A única preocupação real que veio desse recurso é que ele dá aos pais mais capacidade de bisbilhotar seus filhos. Algumas pessoas acreditam que isso poderia prejudicar as crianças, ao expor crianças queer e transgêneros para seus pais intrometidos.

A maior parte da preocupação com essas novas políticas envolve o novo recurso de digitalização de fotos da Apple. Para usuários de iOS ou iPadOS nos EUA, a Apple começará em breve a escanear suas fotos sempre que você as sincronizar com o iCloud. A Apple não é a única empresa que escaneia fotos de usuários para CSAM. Muitas plataformas verificam o CSAM, mas a diferença é onde a verificação ocorre.

Como funciona a nova digitalização CSAM da empresa?

A maioria das plataformas verifica o conteúdo carregado em seus servidores. No caso da Apple, a verificação acontecerá localmente, no seu dispositivo. Eu sei, é um pouco confuso, então deixe-me esclarecer. Sempre que você sincronizar suas fotos com o Fotos do iCloud, a Apple verificará seu dispositivo em busca de fotos com CSAM. Os moderadores da Apple são alertados quando várias correspondências de CSAM são encontradas em seu dispositivo e têm a capacidade de alertar as autoridades competentes no NCMEC.

As preocupações com essas novas políticas residem principalmente no fato de que a Apple agora escaneará seu telefone localmente, em vez de escanear seus servidores em nuvem, para tentar encontrar o CSAM. Um crítico da nova política, Ben Thompson, escreveu isso na Stratechery :

“Em vez de adicionar a digitalização CSAM ao iCloud Photos na nuvem que eles possuem e operam, a Apple está comprometendo o telefone que você e eu possuímos e operamos, sem que nenhum de nós tenha uma opinião sobre o assunto. Sim, você pode desativar o iCloud Photos para desativar a verificação da Apple, mas isso é uma decisão política; a capacidade de acessar o telefone de um usuário agora existe, e não há nada que um usuário do iPhone possa fazer para se livrar dele.”

O problema é que a Apple abriu um precedente que permite ver os dados dos usuários em seus telefones, em vez de nos servidores da empresa. Embora a Apple diga que está apenas digitalizando as fotos que os usuários estão sincronizando com o iCloud, o fato é que a empresa em breve começará a digitalizar os dispositivos dos usuários sempre que estiverem usando o serviço iCloud.

A Apple está lutando contra essas preocupações

iphone na mesa
Imagem: Unsplash

Apesar das crescentes preocupações com suas novas políticas, a Apple está mantendo suas armas e tentando garantir aos usuários que sua privacidade permaneça intacta após a implementação das políticas. A empresa divulgou um documento de perguntas frequentes sobre as preocupações que as pessoas têm sobre as mudanças.

No documento, a Apple garante aos usuários que a criptografia de ponta a ponta do Messages não será afetada por essas alterações e que “nunca terá acesso às comunicações como resultado desse recurso no Messages”. Além disso, o documento de perguntas frequentes expandiu a digitalização do iCloud Photos, reiterando que, embora as digitalizações sejam feitas localmente, apenas as imagens que estão sendo compartilhadas com o iCloud estão sendo digitalizadas. Por que essa verificação acontece localmente em vez de após a conclusão do compartilhamento ainda está em questão.

A empresa também abordou as preocupações de que essas novas políticas possam ser usadas por países que desejam infringir os direitos dos usuários da Apple, mergulhando mais fundo no conteúdo do seu dispositivo. A Apple confirmou que recusaria qualquer pedido dessa natureza, dizendo o seguinte:

“Enfrentamos demandas para construir e implantar mudanças exigidas pelo governo que degradam a privacidade dos usuários antes e recusamos firmemente essas demandas. Continuaremos a recusá-los no futuro. Sejamos claros, essa tecnologia se limita a detectar CSAM armazenado no iCloud e não atenderemos a nenhum pedido do governo para expandi-lo.”

Independentemente de quaisquer preocupações que surgiram até agora, a Apple não recuou nesses novos recursos. Todas essas três atualizações de proteção infantil chegarão ainda este ano em atualizações para iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.

Pelo que vi até agora, essas mudanças parecem muito boas. O CSAM é absolutamente nojento, e é bom ver que a Apple está sendo proativa ao tentar eliminá-lo o máximo possível de suas plataformas, sem prejudicar a segurança do usuário. Parece que as medidas que a empresa tomou para proteger a privacidade são suficientes, mas teremos que esperar e ver se isso continua assim após a implementação.

Tem alguma opinião sobre isso? Deixe-nos saber abaixo nos comentários ou leve a discussão para o nosso Twitter ou Facebook.

Recomendações dos editores:

  • CEO do WhatsApp definitivamente não é fã do novo recurso controverso de digitalização de fotos da Apple
  • O Apple Watch salvou outra vida depois que um homem caiu em um banheiro
  • Tudo o que sabemos sobre o iPhone 13: vazamentos, rumores, data de lançamento e muito mais
  • Apple acaba de confirmar que começará a escanear fotos do iPhone e iCloud para imagens de abuso infantil