애플, 아동 성학대 이미지 퇴치…음란물 사진 감시·통보 기능 추가

2021-08-06     오현식 기자
애플이 클라우드 서비스 '아이클라우드'에 업로드된 아동 착취 음란사진을 자동 탐지하는 시스템을 준비한다는 보도가 나왔다. 사진은 뉴욕 애플스토어 [사진=AFP]

애플이 첨단 기술을 바탕으로 아동성학대 이미지 퇴출에 나선다. 파이낸셜타임즈, 뉴욕타임즈 등 주요 외신이 5일(현지시간) 보도한 내용에 따르면, 애플이 iOS 15 업데이트의 일부로 아동성학대 이미지를 감지하고, 관계 당국에 통보하는 기능을 추가한다. 

애플의 아동안전 페이지에 발표된 내용을 살펴보면, 우선 아동성적학대자료(CSAM) 확산 방지를 위해 애플은 ▲CSAM 감지 ▲메시지 안전 ▲시리·검색 확장 등 세 가지 영역에서 새로운 아동안전 기능을 추가할 계획이다. 

먼저 CSAM 감지는 아동과 관련된 성적 행위 묘사 콘텐츠를 찾아내 관련 기관과 협력함으로써 온라인상에서 CSAM 확산을 막기 위한 기능이다.

이미 알려진 CSAM 이미지를 감지하고, 국립 실종학대아동방지센터(NCMEC)에 통보해 확산을 방지한다. NCMEC는 통보된 데이터로 법 집행기관과 협력해 후속조치를 취하는 형태로 전해졌다.

애플은 알려진 CSAM 이미지 데이터베이스를 해시 집합으로 변환해 사용자 기기에 저장하고, 아이클라우드 업로드 전 일치 여부만을 탐지하고, 암호화된 안전 바우처를 생성하기 때문에 프라이버시 침해 악용 우려가 없다고 설명했다.

특히 애플은 오탐 가능성은 연간 1조분의 1미만이라고 자신했다. 

메시지 안전은 앱에서 노골적인 성적 사진이 전송될 때 어린이와 부모에게 경고하는 기능이다. 아동이 성적 유형의 메시지를 받으면, 사진을 흐릿하게 하는 동시에 경고가 표시된다. 또 부모에게 성적 메시지 전송 여부와 관련된 메시지가 전송된다.

디바이스의 머신러닝(ML) 프로세스를 사용해 이미지 첨부 파일을 분석해 음란물 여부를 판단한다. 즉, 디바이스 내에서 판단 과정이 수행되고, 애플이 메시지에 관여하지 않기 때문에 프라이버시 침해 우려가 없다는 설명이다. 

시리와 검색 확장은 안전하지 않은 상황에서 도움을 받을 수 있도록 추가 리소스를 제공하기 위한 것이다.

가령 시리에게 아동성학대 관련 신고 방법을 질의하면 바로 신고 장소와 방법을 알려주며, 사용자가 CSAM 관련 검색을 시행하면, 시리가 개입해 검색어의 유해성을 설명하고, 도움을 받을 수 있는 리소스를 제공한다.

애플은 이들 기능을 올해 안에 iOS 15, 아이패드OS 15, 맥OS 몬터레이에 추가할 예정이다.

월스트리트저널(WSJ)은 스마트폰을 둘러싼 이용자 사생활 보호 요구, 아동 음란물을 비롯한 불법 활동 관련 법집행 당국의 감시 요구 간의 벌어진 간극을 좁히려는 애플의 시도라고 분석했다.