¿Son realmente seguras las nuevas funciones controvertidas de protección infantil de Apple?
Publicado: 2021-08-17Hace un par de semanas, Apple anunció sus planes para comenzar a escanear los teléfonos de los usuarios en un esfuerzo por combatir el material de abuso sexual infantil (CSAM). Si bien muchas personas han elogiado la nueva política, hay algunos que creen que las nuevas políticas podrían abrir una "puerta trasera" que podría amenazar la privacidad del usuario.
Apple es una empresa que siempre ha tenido en alta estima la privacidad de sus usuarios. Sus recientes actualizaciones de la política de privacidad han sido elogiadas por los defensores de la privacidad en todas partes (mientras que al mismo tiempo erizan las plumas de Mark Zuckerberg en Facebook).
Pero esta nueva política hace que algunas personas se pregunten si los esfuerzos de Apple para combatir la explotación sexual infantil son seguros o no. Para desarrollar esta conversación, echemos un vistazo a lo que harán exactamente las nuevas políticas.
Las nuevas políticas de protección infantil de Apple
Las nuevas políticas anunciadas a principios de este mes se resumen en tres categorías básicas. El primero es relativamente sencillo y no controversial. Apple ahora dirigirá los temas de búsqueda relacionados con CSAM a recursos para informar a las fuerzas del orden u obtener otro tipo de ayuda.
La controversia radica en las siguientes dos características. Primero, Apple agregará un control parental que escanea los mensajes en busca de CSAM. Puede bloquear este contenido para usuarios menores de 18 años e incluso informarlo a los padres de usuarios menores de 13 años.
La última actualización involucra iCloud Photos. Apple dijo que también comenzará a escanear fotos que los usuarios sincronizan con iCloud para CSAM. Si la empresa encuentra suficientes coincidencias de CSAM de un usuario, enviará esas fotos a un moderador de Apple que luego puede notificar al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).
Apple se ha asegurado de mantener la privacidad del usuario como una alta prioridad al diseñar estas funciones, pero hay algunos que no están de acuerdo. Entonces, ¿por qué la gente está preocupada por estas nuevas funciones?
¿Por qué algunas personas están preocupadas por las nuevas funciones de Apple?

La característica que parece ser la más controvertida hasta ahora es el escaneo de las fotos de iCloud de los usuarios, pero llegaremos a eso en solo un minuto. Primero, echemos un vistazo a la nueva función Mensajes. Con esta nueva función, Apple les da a los padres más control al notificarles si un usuario menor de 13 años ha recibido (y visto) imágenes que contienen contenido de abuso sexual infantil.
La única preocupación real que surge de esta característica es que les da a los padres más capacidad para espiar a sus hijos. Algunas personas creen que esto podría dañar potencialmente a los niños, al exponer a los niños homosexuales y transgénero a sus padres entrometidos.
La mayor parte de la preocupación con respecto a estas nuevas políticas tiene que ver con la nueva función de escaneo de fotos de Apple. Para los usuarios de iOS o iPadOS con sede en EE. UU., Apple pronto comenzará a escanear sus fotos cada vez que las sincronice con iCloud. Apple no es la única empresa que escanea las fotos de los usuarios en busca de CSAM. Muchas plataformas analizan en busca de MASI, pero la diferencia radica en dónde se realiza el análisis.
¿Cómo funciona el nuevo escaneo CSAM de la compañía?
La mayoría de las plataformas analizan el contenido que se carga en sus servidores. En el caso de Apple, el escaneo se realizará localmente, en su dispositivo. Lo sé, es un poco confuso, así que déjame aclararte. Siempre que sincronice sus fotos con iCloud Photos, Apple escaneará su dispositivo en busca de fotos con CSAM. Luego, los moderadores de Apple reciben una alerta cuando se encuentran varias coincidencias de CSAM en su dispositivo, y tienen la capacidad de alertar a las autoridades correspondientes en el NCMEC.
Las preocupaciones con estas nuevas políticas radican principalmente en el hecho de que Apple ahora escaneará su teléfono localmente, en lugar de escanear sus servidores en la nube, para intentar encontrar MASI. Un crítico de la nueva política, Ben Thompson, escribió esto en Stratechery :

“En lugar de agregar el escaneo CSAM a las fotos de iCloud en la nube que poseen y operan, Apple está comprometiendo el teléfono que usted y yo poseemos y operamos, sin que ninguno de nosotros tenga voz en el asunto. Sí, puede desactivar Fotos de iCloud para deshabilitar el escaneo de Apple, pero esa es una decisión política; ahora existe la capacidad de acceder al teléfono de un usuario, y no hay nada que un usuario de iPhone pueda hacer para deshacerse de él”.
El problema es que Apple ahora ha sentado un precedente que le permite ver los datos de los usuarios en sus teléfonos en lugar de en los servidores de la empresa. Aunque Apple dice que solo está escaneando las fotos que los usuarios están sincronizando con iCloud, el hecho es que la compañía pronto comenzará a escanear los dispositivos de los usuarios cuando usen el servicio iCloud.
Apple está luchando contra estas preocupaciones.

A pesar de las crecientes preocupaciones sobre sus nuevas políticas, Apple se mantiene firme e intenta garantizar a los usuarios que su privacidad permanecerá intacta después de que se hayan implementado las políticas. La compañía publicó un documento de preguntas frecuentes sobre las preocupaciones que tienen las personas sobre los cambios.
En el documento, Apple asegura a los usuarios que el cifrado de Mensajes de extremo a extremo no se verá afectado por estos cambios y que "nunca tendrá acceso a las comunicaciones como resultado de esta función en Mensajes". Además, el documento de preguntas frecuentes amplió el escaneo de fotos de iCloud, reiterando que, aunque los escaneos se realizan localmente, solo se escanean las imágenes que se comparten con iCloud. Todavía se cuestiona por qué este escaneo ocurre localmente en lugar de después de que se haya completado el intercambio.
La compañía también abordó las preocupaciones de que estas nuevas políticas podrían ser utilizadas por países que buscan infringir los derechos de los usuarios de Apple al profundizar en el contenido de su dispositivo. Apple confirmó que rechazaría cualquier solicitud de esta naturaleza, diciendo esto:
“Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado rotundamente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar MASI almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla”.
Independientemente de las preocupaciones que hayan surgido hasta ahora, Apple no se ha retirado de estas nuevas funciones. Las tres actualizaciones de protección infantil llegarán más adelante este año en las actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.
Por lo que he visto hasta ahora, estos cambios parecen bastante buenos. El CSAM es absolutamente repugnante y es bueno ver que Apple está siendo proactivo en tratar de eliminarlo de sus plataformas tanto como sea posible, sin dañar la seguridad del usuario. Parece que los pasos que ha tomado la compañía para proteger la privacidad son suficientes, pero tendremos que esperar y ver si sigue siendo así después de que se implementen.
¿Tiene alguna idea sobre esto? Háganos saber a continuación en los comentarios o lleve la discusión a nuestro Twitter o Facebook.
Recomendaciones de los editores:
- El CEO de WhatsApp definitivamente no es fanático de la nueva y controvertida función de escaneo de fotos de Apple
- El Apple Watch ha salvado otra vida después de que un hombre cayera en un baño
- Todo lo que sabemos sobre el iPhone 13: filtraciones, rumores, fecha de lanzamiento y más
- Apple acaba de confirmar que comenzará a escanear fotos de iPhone e iCloud en busca de imágenes de abuso infantil