Apple 备受争议的新儿童保护功能真的安全吗?

已发表: 2021-08-17

几周前,Apple 宣布计划开始扫描用户的手机,以打击儿童性虐待材料 (CSAM)。 尽管许多人一直在称赞新政策,但也有一些人认为,新政策可能会打开一个可能威胁用户隐私的“后门”。

苹果是一家一直非常重视用户隐私的公司。 其最近的隐私政策更新受到了各地隐私倡导者的称赞(同时在 Facebook 上激怒了马克扎克伯格的羽毛)。

但这项新政策让一些人质疑苹果打击儿童性剥削的努力是否安全。 为了展开这场对话,让我们来看看新政策究竟会做什么。

苹果新的儿童保护政策

本月早些时候宣布的新政策可归结为三个基本类别。 第一个是相对简单且没有争议的。 Apple 现在会将与 CSAM 相关的搜索主题定向到资源,以便向执法部门报告或获得其他类型的帮助。

争议在于接下来的两个特征。 首先,Apple 将添加一个家长控制,用于扫描消息中的 CSAM。 它可以为 18 岁以下的用户屏蔽这些内容,甚至可以向 13 岁以下用户的父母举报。

最后一次更新涉及 iCloud 照片。 苹果表示,它还将开始扫描用户与 iCloud 同步的 CSAM 照片。 如果公司从用户那里找到足够多的 CSAM 匹配项,它会将这些照片发送给 Apple 版主,版主随后会通知美国国家失踪和受虐儿童中心 (NCMEC)。

Apple 确保在设计这些功能时将用户隐私放在首位,但有些人不同意。 那么为什么人们会关注这些新功能呢?

为什么有些人关心苹果的新功能?

ios 苹果 iphone 显示应用程序和 wifi 连接
图片:不飞溅

迄今为止似乎最具争议的功能是扫描用户的 iCloud 照片,但我们将在稍后讨论。 首先,让我们看一下新的消息功能。 借助这项新功能,Apple 可以通过通知父母是否有 13 岁以下的用户收到(并查看)包含 CSAM 的图像,从而为父母提供更多控制权。

此功能唯一真正令人担忧的是,它使父母更有能力窥探他们的孩子。 有些人认为,这可能会伤害孩子,因为他们会将酷儿和跨性别的孩子带到他们爱管闲事的父母面前。

对这些新政策的大部分担忧都与苹果的新照片扫描功能有关。 对于美国的 iOS 或 iPadOS 用户,只要您将照片与 iCloud 同步,Apple 将很快开始扫描您的照片。 Apple 并不是唯一一家为 CSAM 扫描用户照片的公司。 许多平台会扫描 CSAM,但不同之处在于扫描发生的位置。

公司新的 CSAM 扫描是如何工作的?

大多数平台会扫描上传到其服务器的内容。 在 Apple 的情况下,扫描实际上会在您的设备上本地进行。 我知道,这有点令人困惑,所以让我澄清一下。 每当您将照片与 iCloud 照片同步时,Apple 都会使用 CSAM 扫描您的设备中的照片。 然后,当在您的设备上发现多个 CSAM 匹配项时,Apple 版主会收到警报,并且他们能够向 NCMEC 的适当机构发出警报。

对这些新政策的担忧主要在于,Apple 现在将在本地扫描您的手机,而不是扫描其云服务器,以尝试查找 CSAM。 新政策的一位批评者本·汤普森 (Ben Thompson) 在Stratechery上写道:

“Apple 没有将 CSAM 扫描添加到他们拥有和运营的云中的 iCloud 照片,而是损害了你和我拥有和运营的手机,而我们任何人在这件事上都没有发言权。 是的,您可以关闭 iCloud 照片以禁用 Apple 的扫描,但这是一个政策决定; 进入用户手机的功能现在已经存在,iPhone 用户无法摆脱它。”

问题在于,苹果现在开创了一个先例,允许它查看手机上的用户数据,而不是公司服务器上的数据。 尽管苹果公司表示它只扫描用户与 iCloud 同步的照片,但事实仍然是,该公司很快就会开始扫描用户在使用 iCloud 服务时的设备。

苹果正在反击这些担忧

桌上的 iphone
图片:不飞溅

尽管对其新政策的担忧日益增加,但苹果仍坚持自己的立场,并努力确保用户在政策实施后其隐私将保持不变。 该公司发布了一份关于人们对这些变化的担忧的常见问题文件。

在文件中,Apple 向用户保证 Messages 的端到端加密不会受到这些更改的影响,并且它“永远不会因为 Messages 的这一功能而获得通信访问权限”。 此外,常见问题解答文档扩展了 iCloud 照片扫描,重申虽然扫描是在本地完成的,但只有与 iCloud 共享的图像才会被扫描。 为什么这种扫描发生在本地而不是在共享完成之后仍然存在疑问。

该公司还解决了这样的担忧,即这些新政策可能会被那些希望通过深入了解您的设备内容来侵犯 Apple 用户权利的国家/地区使用。 苹果确认他们将拒绝任何此类请求,并表示:

“我们以前曾面临过构建和部署政府强制更改的要求,这些更改会降低用户的隐私,并且坚决拒绝这些要求。 我们将在未来继续拒绝他们。 让我们明确一点,这项技术仅限于检测存储在 iCloud 中的 CSAM,我们不会接受任何政府的扩展请求。”

不管迄今为止出现的任何担忧,Apple 都没有撤回这些新功能。 所有这三个儿童保护更新都将在今年晚些时候在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

从我目前看到的情况来看,这些变化似乎相当不错。 CSAM 绝对令人作呕,很高兴看到 Apple 正在积极尝试尽可能地从其平台上消除它,同时又不损害用户安全。 公司为保护隐私所采取的措施似​​乎已经足够,但我们将不得不等待,看看这些措施实施后是否仍然如此。

对此有什么想法吗? 在下面的评论中让我们知道,或者将讨论带到我们的 Twitter 或 Facebook。

编辑推荐:

  • WhatsApp 的 CEO 绝对不喜欢苹果新的有争议的照片扫描功能
  • 一名男子跌入浴室后,Apple Watch 挽救了另一条生命
  • 我们对 iPhone 13 的了解:泄漏、谣言、发布日期等
  • 苹果刚刚确认将开始扫描 iPhone 和 iCloud 照片中的虐待儿童图片