태국 방콕에 위치한 애플스토어 [사진=AFP]
태국 방콕에 위치한 애플스토어 [사진=AFP]

애플의 아동성학대 방지 조치를 확대에 대한 논란이 뜨겁다. 유해 이미지로부터 아동을 보호하는 조치에는 환영의 목소리가 높지만 프라이버시 침해는 물론 탐지기술 악용에 대한 우려의 목소리도 나오고 있는 것이다.

애플이 지난주 발표한 아동성학대 방지 조치의 핵심은 ▲CSAM 감지·통보 ▲메시지 안전 ▲시리·검색 확장 등 세 가지로 요약된다. 애플은 iOS 15, 맥OS 몬터레이 등 이들 기능을 추가할 방침이다.

이에 대해 아동보호단체 등에서는 이를 환영하고 전폭적인 지지를 밝히고 있다. 하지만 애플이 사용들의 기기에 공식적으로 백도어를 설치와 같다는 기술적 반론도 나오고 있다.

사용자가 저장·공유한 사진을 지속적으로 모니터링하는 방식에 기반하기 때문에 사생활침해는 물론 설치된 백도어 악용이 발생한 가능성이 높다는 지적이다. 종단간 암호화를 무력화해 보안 수준을 낮춘다는 주장도 있다.

또 다른 우려는 독재국가에서 정권에 반대하는 세력의 목소리를 차단하는 도구로 사용될 수 있다는 점이다.

실제로 애플은 암호화된 전화통신을 금지한 사우디아라비아의 법률로 인해 애플은 페이스타임 없는 아이폰을 판매하고 있는데, 이와 유사하게 독재국가에서 국가권력에 의해 메시징이 검열받을 수 있는 위험이 존재한다고 지적된다.

이에 일렉트릭프론티어 재단 등은 이번 조치를 반대하는 성명을 발표했으며, 깃허브에서는 애플의 콘텐츠 모니터링 기술 배포 중단을 요구하는 공개서한에 수천명이 서명하기도 했다. 

이에 대해 애플은 이번 조치와 관련된 F&A를 발표하면서 해명했다. 먼저 애플은 ‘메시지 안전’과 관련해 가족 공유로 묶인 기기에서만 동작하며, 이미지만을 분석하기 때문에 메시지의 개인정보보호는 계속 보장된다고 설명했다.

CSAM 이미지 감지 기능의 경우, 아이클라우드 업로드시에만 동작하며 실제 이미지가 아닌 해시를 사용해 알려진 CSAM 이미지만을 검출하기 때문에 프라이버시 침해를 침해하지 않는다고 설명했다.

이어 애플은 대부분의 국가에서 CSAM 이미지 소유는 범죄이며, 애플은 이를 당국에 보고할 의무가 있다는 점도 덧붙였다.

애플이 이번 조치와 관련된 의문들에 대해 답한 F&A를 요약하면 다음과 같다.

◆ 메시지 안전과 CSAM 검출의 차이점은? 
- 메시지 안전은 부모와 자녀가 메시지 앱에서 성적으로 노골적인 이미지를 주고받지 않도록 도와주는 추가 도구를 제공하는 기능으로, 가족 공유에 설정된 계정의 이미지에 대해서만 작동하며, 이미지만 분석하므로 메시지의 개인 정보 보호 보장이 변경되지 않는다. 

- CSAM 감지는 알려진 CSAM 이미지와 일치하는 사진 이외의 다른 사진에 대한 정보를 애플에 제공하지 않으며, 아이클라우드 포토 업로드만을 차단한다. 아이클라우드에 사진을 저장하지 않는 사용자에게 영향이 없으며, 메시지에는 적용되지 않는다.

◆ 메시지 안전을 사용할 수 있는 사람은?
- 메시지 안전은 아이클라우드에서 패밀리로 설정된 계정만 사용할 수 있으며, 부모 통지 기능은 12세 이하 자녀 계정에 대해서만 활성화할 수 있다. 13~17세 아동 계정의 경우, 자녀에게는 경고 메시지가 표시되지만, 부모 통지되지는 않는다.

[source=pixabay]
[source=pixabay]

◆ 메시지가 애플 또는 법 집행 기관과 공유되는가?
- 아니다. 애플은 메시지에서 이 기능을 사용해 액세스할 수 없으며, 공유되지 않는다. 메시지의 통신 안전 기능은 CSAM 탐지와는 별개다.

◆ CSAM 감지가 기기에 저장된 모든 사진을 스캔한다는 의미인가?
- 설계상 사용자가 아이클라우드 포토에 업로드하도록 선택한 사진에만 적용되며, 알려진 CSAM 이미지 컬렉션을 저장하고 있는 계정과 알려진 CSAM과 일치하는 이미지만 학습한다. 또 장치의 개인 아이포토 사진 라이브러리에서는 작동하지 않는다.

◆ 이미지 비교를 위해 CSAM 이미지를 아이폰에 다운로드하는가?
- CSAM 이미지는 장치에 저장되거나 장치로 전송되지 않는다. 감지는 실제 이미지 대신 기기에 알려진 CSAM 이미지를 나타내는 숫자 문자열인 해시를 사용해 이뤄진다. 해시는 읽을 수 없으며, CSAM 이미지로 변환할 수 없다. 

◆ CSAM 감지 시스템을 사용해 아이클라우드 포토에서 CSAM 이외의 것을 탐색할 수 있는가?
- 아이클라우드 포토용 CSAM 감지는 아동안전단체에서 제공하는 CSAM 이미지 해시와만 연동된다. 법 집행기관에 대한 자동신고 기능은 없으며, NCMEC에 보고서를 작성하기 전 인적 검토가 진행된다. 

- 미국을 포함한 대부분의 국가에서 CSAM 이미지를 소유하는 것은 범죄이며, 애플은 알게 된 모든 사례를 해당 당국에 보고할 의무가 있다.

◆ 정부가 CSAM이 아닌 이미지를 추가하도록 강요할 수 있는가?
- 애플은 어떤 요구도 거절할 것이다. 애플의 CSAM 탐지 기능은 아이클라우드 포토에 저장된 알려진 CSAM 이미지를 NCMC 등 아동안전단체 전문가들이 식별해 감지하는 데에만 적용된다. 

- 분명히 말하지만, 이 기술은 아이클라우드의 CSAM 감지 용도로 제한되며, 정부의 확장 요청에는 응하지 않을 것이다. 

◆ 오탐으로 무고한 사람들이 법 집행 기관에 신고될 가능성은 없는지?
- 특정 계정에 잘못 플래그를 지정할 가능성은 연간 1조 분의 1 미만이다. 또 시스템에 의해 계정이 플래그가 지정되면, NCMEC에 보고되기 전에 사람의 검토 과정을 거치게 된다. 이를 통해 시스템 오류나 사이버 공격으로 인해 무고한 사람이 신고되는 사례를 방지할 수 있다. 

관련기사

저작권자 © IT비즈뉴스(ITBizNews) 무단전재 및 재배포 금지