논란이 되고 있는 Apple의 새로운 아동 보호 기능은 실제로 안전합니까?

게시 됨: 2021-08-17

몇 주 전, Apple은 CSAM(아동 성적 학대 자료)을 근절하기 위해 사용자의 휴대폰을 스캔하기 시작할 계획이라고 발표했습니다. 많은 사람들이 새 정책을 칭찬해 왔지만 새 정책이 잠재적으로 사용자 개인 정보를 위협할 수 있는 "백도어"를 열 수 있다고 믿는 사람들이 있습니다.

Apple은 항상 사용자의 개인 정보를 매우 중요하게 생각하는 회사입니다. 최근의 개인 정보 보호 정책 업데이트는 전 세계의 개인 정보 보호 옹호자들에 의해 칭찬을 받았습니다(동시에 Facebook에서 Mark Zuckerberg의 깃털을 휘젓는)

그러나 이 새로운 정책으로 인해 일부 사람들은 아동 성 착취를 퇴치하려는 Apple의 노력이 안전한지 의문을 제기합니다. 이 대화를 펼치기 위해 새 정책이 무엇을 할 것인지 정확히 살펴보겠습니다.

Apple의 새로운 아동 보호 정책

이달 초 발표된 새로운 정책은 크게 세 가지로 요약된다. 첫 번째는 비교적 간단하고 논쟁의 여지가 없습니다. Apple은 이제 CSAM과 관련된 검색 주제를 법 집행 기관에 보고하거나 다른 종류의 도움을 받을 수 있는 리소스로 안내합니다.

논란은 다음 두 가지 기능에 있습니다. 먼저 Apple은 메시지에서 CSAM을 검색하는 자녀 보호 기능을 추가합니다. 18세 미만 사용자에 대해 이 콘텐츠를 차단할 수 있으며 13세 미만 사용자의 부모에게 신고할 수도 있습니다.

마지막 업데이트에는 iCloud 사진이 포함됩니다. Apple은 또한 사용자가 CSAM용 iCloud와 동기화하는 사진을 스캔하기 시작할 것이라고 말했습니다. 회사가 사용자로부터 충분한 CSAM 일치 항목을 찾으면 해당 사진을 Apple 중재자에게 보낸 다음 NCMEC(National Center for Missing and Exploited Children)에 알릴 수 있습니다.

Apple은 이러한 기능을 설계할 때 사용자 개인 정보를 높은 우선 순위로 유지했음을 확인했지만 동의하지 않는 사람도 있습니다. 그렇다면 사람들이 이러한 새로운 기능에 관심을 갖는 이유는 무엇입니까?

일부 사람들이 Apple의 새로운 기능에 관심을 갖는 이유는 무엇입니까?

ios 애플 아이폰은 앱과 와이파이 연결을 보여줍니다.
이미지: 언스플래쉬

지금까지 가장 논란이 되고 있는 기능은 사용자의 iCloud 사진을 스캔하는 기능이지만 1분 안에 알아보도록 하겠습니다. 먼저 새로운 메시지 기능을 살펴보겠습니다. 이 새로운 기능을 통해 Apple은 13세 미만의 사용자가 CSAM이 포함된 이미지를 수신(및 본) 경우 이를 부모에게 알려 부모에게 더 많은 제어 권한을 제공합니다.

이 기능에서 나온 유일한 진짜 관심사는 부모가 자녀를 엿볼 수 있는 더 많은 기능을 제공한다는 것입니다. 어떤 사람들은 이것이 퀴어와 트랜스젠더 아이들을 코가 많은 부모에게 데려가 잠재적으로 아이들을 다치게 할 수 있다고 믿습니다.

이러한 새로운 정책에 대한 대부분의 우려는 Apple의 새로운 사진 스캔 기능과 관련이 있습니다. 미국 기반 iOS 또는 iPadOS 사용자의 경우 iCloud와 동기화할 때마다 Apple에서 곧 사진 스캔을 시작합니다. Apple은 CSAM을 위해 사용자 사진을 스캔하는 유일한 회사가 아닙니다. 많은 플랫폼이 CSAM을 스캔하지만 차이점은 스캔이 발생하는 위치입니다.

회사의 새로운 CSAM 스캐닝은 어떻게 작동합니까?

대부분의 플랫폼은 서버에 업로드된 콘텐츠를 스캔합니다. Apple의 경우 스캔은 실제로 장치에서 로컬로 발생합니다. 나는 그것이 약간 혼란 스럽다는 것을 알고 있으므로 명확히하겠습니다. iCloud 사진과 사진을 동기화할 때마다 Apple은 CSAM을 사용 하여 기기 에서 사진을 검색합니다. 그런 다음 Apple 중재자는 장치에서 여러 CSAM 일치 항목이 발견되면 경고를 받고 NCMEC의 적절한 기관에 경고할 수 있습니다.

이러한 새로운 정책에 대한 우려는 주로 Apple이 이제 CSAM을 찾기 위해 클라우드 서버를 스캔하는 대신 로컬에서 전화기를 스캔한다는 사실에 있습니다. 새로운 정책에 대한 한 비평가인 Ben Thompson은 Stratechery 에서 이렇게 썼습니다.

"클라우드에서 소유하고 운영하는 iCloud 사진에 CSAM 스캔을 추가하는 대신 Apple은 우리 중 누구도 이 문제에 대해 발언권 없이 귀하와 내가 소유하고 운영하는 전화를 손상시키고 있습니다. 예, iCloud 사진을 꺼서 Apple의 스캔을 비활성화할 수 있지만 이는 정책 결정입니다. 사용자의 전화기에 접근할 수 있는 기능이 이제 존재하며 iPhone 사용자가 이를 제거하기 위해 할 수 있는 일은 없습니다.”

문제는 애플이 이제 회사 서버가 아닌 휴대폰에서 사용자 데이터를 볼 수 있도록 하는 선례를 세웠다는 것입니다. Apple은 사용자가 iCloud와 동기화하는 사진만 스캔한다고 밝혔지만 사용자가 iCloud 서비스를 사용할 때마다 회사가 곧 사용자의 기기를 스캔하기 시작할 것이라는 사실이 남아 있습니다.

Apple은 이러한 우려에 맞서 싸우고 있습니다.

책상 위의 아이폰
이미지: 언스플래쉬

새로운 정책에 대한 우려가 커지고 있음에도 불구하고 Apple은 총을 고수하고 정책이 구현된 후에도 사용자의 개인 정보가 손상되지 않도록 보장하기 위해 노력하고 있습니다. 회사는 사람들이 변경 사항에 대해 갖는 우려를 둘러싼 자주 묻는 질문 문서를 발표했습니다.

문서에서 Apple은 메시지 종단 간 암호화가 이러한 변경의 영향을 받지 않으며 "메시지의 이 기능의 결과로 통신에 대한 액세스 권한을 얻지 못함"을 사용자에게 보장합니다. 또한 FAQ 문서는 iCloud 사진 스캔에서 확장되어 스캔은 로컬에서 수행되지만 iCloud와 공유되는 이미지만 스캔되고 있음을 반복합니다. 이 스캔이 공유가 완료된 후가 아니라 로컬에서 발생하는 이유는 여전히 의문입니다.

회사는 또한 이러한 새로운 정책이 기기의 콘텐츠를 더 깊이 파고들어 Apple 사용자의 권리를 침해하려는 국가에서 사용될 수 있다는 우려를 해결했습니다. Apple은 다음과 같이 이러한 성격의 요청을 거부할 것임을 확인했습니다.

“우리는 이전에 사용자의 개인 정보를 저하시키는 정부 명령 변경 사항을 구축 및 배포하라는 요구에 직면했으며 이러한 요구를 단호하게 거부했습니다. 앞으로도 계속 거부할 것입니다. 분명히 말씀드리자면, 이 기술은 iCloud에 저장된 CSAM을 감지하는 것으로 제한되며 확장을 위한 정부의 요청에 동의하지 않을 것입니다.”

지금까지 나온 어떤 우려에도 불구하고 Apple은 이러한 새로운 기능을 철회하지 않았습니다. 이 세 가지 어린이 보호 업데이트는 모두 올해 말 iOS 15, iPadOS 15, watchOS 8 및 macOS Monterey에 대한 업데이트와 함께 제공될 예정입니다.

지금까지 내가 본 바에 따르면 이러한 변화는 꽤 좋은 것 같습니다. CSAM은 절대적으로 역겹고 Apple이 사용자 보안에 해를 끼치지 않으면서 최대한 플랫폼에서 제거하기 위해 적극적으로 노력하고 있는 것을 보는 것은 좋은 일입니다. 회사가 개인정보를 보호하기 위해 취한 조치는 충분해 보이지만 구현 후에도 그대로인지 지켜봐야 할 것입니다.

이에 대한 생각이 있습니까? 의견에 아래로 알려주거나 Twitter 또는 Facebook으로 토론을 진행하십시오.

편집자 추천:

  • WhatsApp의 CEO는 확실히 논란의 여지가 있는 Apple의 새로운 사진 스캔 기능의 팬이 아닙니다.
  • Apple Watch는 한 남자가 화장실에서 넘어진 후 또 다른 생명을 구했습니다.
  • iPhone 13에 대해 우리가 알고 있는 모든 것: 누출, 소문, 출시일 등
  • Apple은 방금 iPhone 및 iCloud 사진에서 아동 학대 이미지 스캔을 시작할 것이라고 확인했습니다.